Hopp til innhold

MachineLearning and the Police

Bilete av forfattaren
ANNETTE VESTBY: doktorgradsstipendiat ansatt ved Politihøgskolen.
Annette Vestby (PHS) og Jonas Vestby har nyleg publisert artikkelen «MachineLearning and the police: asking the right questions» i tidsskriftet Policing: a journal of policy and practice.

For english summary, see below.

Maskinlæring i politiet
Korleis kan vi sikre ein open og tilgjengeleg demokratisk debatt om politiets bruk av prediktive analyser, når teknologien som brukast inngår i eit eige ekspertområde? Politiet brukar i dag teknologi for automatisk behandling, og prediktiv analyse av data, og bak desse reiskapane er ofte ein maskinlæringsmodell (ML-modell).

ML er ein form for kunstig intelligens, der maskiner går gjennom ein stor mengde data og på denne måten lære seg å kjenne igjen mønster. Vi seie då at maskina «lærar» seg reglar, i staden for at vi programmerar inn desse.

I prediktiv analyse brukar maskina datamønstra til å føresjå hendingar/avvik. Fleire land i Europa, samt USA, har til dømes forsøkt å ta i bruk teknologi som skal identifisere personar som mest sannsynleg kjem til å utføre ei kriminell handling.

Innsyn og vurdering
Forfattarane av artikkelen argumenterer for at personar utan ekspertise på ML kan og bør ha innsyn i, og kunne bidra til, å avgjere om og korleis politiet skal ta i bruk ML-modellar i sitt arbeid.

Vestby og Vestby har laga ei «reiskapskasse» som lar ikkje-ekspertar på ML vurdere tre viktige element i ein ML-modell: 1. Kva inneheld datagrunnlaget som maskina lære av? 2. Kva er læringsmåla våre når vi tek i bruk ein ML-modell? 3. Korleis kan avgjersler som denne modellen tek, påverke seinare data?

Forfattarane påpekar at innsyn i desse prosessane for ikkje-ekspertar i ML-modellar kan styrke den demokratiske etterprøvinga i bruk av ML-modellar i politiarbeid.

 

The authors english summary:
How can we secure an accessible and open democratic debate about police use of predictive analytics when the technology itself is a specialized area of expertise? Police utilize technologies of prediction and automation where the underlying technology is often a machine learning (ML) model.

The article argues that important issues concerning ML decision models can be unveiled without detailed knowledge about the learning algorithm, empowering nonML experts and stakeholders in debates over if, and how to, include them, for example, in the form of predictive policing.

Non-ML experts can, and should, review ML models. We provide a ‘toolbox’ of questions about three elements of a decision model that can be fruitfully scrutinized by non-ML experts: the learning data, the learning goal, and constructivism. Showing this room for fruitful criticism can empower non-ML experts and improve democratic accountability when using ML models in policing.

Les heile artikkelen i PIA/Read the whole article in PIA:

Publisert: - Sist oppdatert: |