Flere bør diskutere kunstig intelligens i politiet
Politiet tar i bruk kunstig intelligens for å løse deler av oppgavene sine, men de færreste av oss snakker maskinspråket flytende. Langt flere enn teknologene bør være med og diskutere hvordan teknologien tas i bruk.
Politiet verden over automatiserer enkle databehandlingsoppgaver, og prøver å komme kriminalitet og uorden i forkjøpet med forutseende analyser.
Mange er bekymret for at mulighetene for innsyn i politiets arbeid og beslutningsgrunnlag blir svekket når teknisk spesialiserte verktøy blir en del av slike prosesser. Og blir politiet selv i stand til å gjøre rede for kunnskapsgrunnlaget de handler ut fra?
Det er en utfordring hvis teknologien bygger et skott mellom dem som blir i stand til å vurdere politiarbeidet og ikke. Politiets virksomhet er et bredt og felles samfunnsmessig anliggende.
Det er derimot ikke teknologiene i seg selv som lukker døra for at flere kan være med i samtalen. Tvert imot: Mange viktige temaer knyttet til hvordan slike verktøy tas i bruk kan diskuteres uten detaljert kunnskap om og forståelse av algoritmene som ligger til grunn. Vår agenda er å sette kunnskapsrike og engasjerte ikke-teknologer bedre i stand til å bidra på dette feltet.
Lærende maskiner
Når det snakkes om kunstig intelligens er det ofte snakk om programvare som er bygget på maskinlæring (ML). ML-modeller finner og gjenskaper mønstre i data. Derfor kan de, som mennesker, for eksempel lære seg å skjelne mellom bilder av katter og hunder eller holde en selvkjørende bil på veien.
I disse tilfellene er målet for det maskinen skal lære ganske ukontroversielt: Vi er stort sett enige om hva som er en hund og hva som er en katt, og om hva det vil si at en bil ikke har kjørt av veien.
På mange andre områder er ikke målet like enkle å etablere: I sosialt liv er det ofte usikkerhet forbundet med hva som er faktum, og vi er ofte uenige i verdivurderinger: Hvor mye kriminalitet fins det egentlig, og er det verst med ett skrekkelig tilfelle av X, eller mange tilfeller av det mindre alvorlige Y?
For at politiet skal ta i bruk programvare som bygger på maskinlæring er det derfor ikke nok med teknologisk kompetanse: Å snakke maskinspråket er ikke nok for å skape og kontrollere modeller som er både teknisk gode og moralsk akseptable.
LES OGSÅ: Når lojalitet trumfer lederskap
Hvem bør snakke sammen og om hva?
Teknisk ekspertise trengs for å bygge, drifte og føre tilsyn med ML-modeller. Samtidig er den tekniske sfæren i politisammenheng snever sammenlignet med samfunnet som verktøyene skal hjelpe politiet til å handle i. Vi kan ikke forvente at mange i politiet eller blant borgerne har ML-ekspertise.
På samme måte er de som sitter med kompetansen til å utvikle modellene typisk ikke eksperter på feltet som modellen skal brukes i – som politivirksomhet.
En rekke parter bør drøfte bruken av ML-modeller med hverandre: Politi, utviklere, berørte grupper, og den demokratiske offentligheten i vid forstand. Utfordringen er hvordan disse kan snakke sammen uavhengig av teknisk ekspertise.
I en nylig utgitt artikkel diskuterer vi tre områder hvor også de uten teknisk ekspertise kan bidra i diskusjonene: Data, læringsmål, og hvordan modellen påvirker feltet den analyserer. Dette er områder hvor vi kan snakke om helt sentrale forhold og bli klokere om hva som påvirker både gyldigheten av resultatet som modellen kommer med, og om vi synes at resultatet er rettferdig.
LES OGSÅ: Politiet bør automatisere datafangsten
Spør om data
Politifolk, i motsetning til utviklere, vet mye om hvordan dataene som brukes i modellen blir samlet inn.
Forskeren Sheptycki beskrev hvordan politiet oftere registrerte informasjon som de mente kunne bidra til domfellelse. Torstein Eidet (PHS) viste nylig i sin master at narkotikarelaterte informasjoner dominerer registreringene i Indicia. Dette er to eksempler på hvordan data blir preget av organisasjonen som samler den inn. Slikt er det viktig å kjenne til hvis data skal brukes av en modell som gjenskaper mønsteret den finner.
Uavhengig av ML-ekspertise kan man spørre: Hvilke data brukes og hvordan ble de samlet inn? Ble de samlet inn for et annet formål? Er de representative for feltet som modellen påvirker? Fanger de egenskaper (som kjønn) som vi ikke ønsker at skal ha noe å si for resultatet?
Spør om læringsmålet
ML-modeller har alltid et læringsmål som en kan stille spørsmål rundt. Det er lettere å være enige noen typer læringsmål framfor andre.
Under etterforskningen av Rolls Royce, brukte UK Serious Fraud Office en modell til å skille dokumenter som de ikke skulle ha innsyn i ut av en digital bunke på til sammen 30 millioner. Å skille mellom dokumenter som enten er beskyttet av advokat-klient-forholdet eller ikke, er kanskje ikke teknisk eller moralsk krevende – så lenge avgjørelsene er riktige er læringsmålet langt på vei rettferdiggjort.
Andre læringsmål kan berøre mer komplekse forhold: Hvordan avgjør vi i hvilket monn politiet skal drive reaktiv etterforskning versus forebygging ut fra effekten på kriminalitetsbildet? Hvordan vil prioritering av det ene over det andre støte an mot ulike oppfatninger i befolkningen om hva som er rettferdig?
Uavhengig av ML-ekspertise kan man spørre: Hva er det overordnede læringsmålet? Hva ønsker vi å oppnå ved å ta disse beslutningene? Er det spesifikke læringsmålet en fullstendig beskrivelse av det politiet skal oppnå? Er det uenighet om læringsmålet?
LES OGSÅ: – Kunstig intelligens kan effektivisere politiets bruk av skjulte tvangsmidler
Påvirker de sosiale systemene
Modellen vi bruker for å ta beslutninger påvirker verden. Det gjelder enten modellen befinner seg inne i vårt eget hode eller har blitt produsert av en lærende maskin.
Når politiet beslutter å agere på den ene eller den andre måten – eller ikke i det hele tatt – påvirker det de sosiale systemene de inngår i på intenderte og uintenderte måter.
Som del av et større nordisk forskningsprosjekt har Randi Solhjell (PHS) sett på unge minoriteters opplevelse av politiet, og blant annet funnet at deres forebyggende tilstedeværelse på videregående skoler i Oslo kan oppleves skremmende og stigmatiserende.
Politiets hensikt med det de gjør er ikke nødvendigvis styrende for borgernes opplevelse av det som blir gjort.
Politipraksis genererer data om virksomheten, og disse danner grunnlag for hva senere modeller lærer. Modellene kan ikke se inn i framtida, men gjenskaper mønsteret som har blitt tegnet gjennom historiske data – på godt og vondt.
Uavhengig av ML-ekspertise kan man spørre: Hvis vi agerer på modellbeslutningen, vil det påvirke senere data? Er det sannsynlig at modellen fungerer fordi den baserer seg på historiske praksiser, og er disse moralsk eller politisk omstridt?
LES OGSÅ: Slik skal Oslo-politiet bygge tillit med minoritetsungdom
Hvordan det kan gå bedre
Når maskinen gjenskaper mønstre i data er det en kilde til reproduksjon og bekreftelse av ting som politiet allerede har forholdt seg til. Interessant nok er reproduksjonen en mulighet for endring: Algoritmiske verktøy kan avdekke diskriminerende praksiser.
Men i motsetning til hos mennesker kan slike funn brukes til å holde for eksempel variabler som korrelerer med etnisk opphav unna analysen. Det fins neppe en teknisk løsning på rettferdighetsutfordringen i politiarbeid, men teknologien gir mulighet til å forbedre menneskelig praksis.
Politiets bruk av teknologi berører både tekniske og moralske spørsmål.
Selv om å bygge og føre tekniske ettersyn med maskinen er et område for eksperter, kan og bør ikke-teknologer delta både i utvikling og kontroll av systemene.
LES OGSÅ: Politiet må kunne beskytte befolkningen i cyber og utøve politimyndighet i og gjennom cyber