Politiet bruger også algoritmer og AI – vi snakker bare ikke om det

Digital predictive policing

På IT-Universitetet i København forsøger forskere i dag og i morgen fra flere lande via det såkaldte CUPP-projekt, Critical Understanding of Predictive Policing, at sætte fokus på politiets stigende brug og erfaringer med algoritmer. Det er første gang, at erfaringer samles i det omfang. Håbet er, at det skal føre til mere kritisk tilgang og åbenhed om systemer. Mange systemer er nemlig indført uden nævneværdig offentlig debat og ved at spille på utryghed.

Af Niels Bertelsen, formand PROSA, Forbundet af It-professionelle, Vasilis Galis, lektor på IT-Universitetet ved Center for Digital Velfærd og Bjarke Friborg, PROSA, begge en del af styregruppen for forskningsprojektet Critical Understanding of Predictive Policing.

Hvordan gør myndighederne og især politiet brug af datadrevne systemer til at overvåge os? Og ikke mindst, hvordan vil de bruge de kolossale muskler, som AI-styrede algoritmer giver dem?

Det er ikke helt ukendt, at hvis politiet enten ønsker flere ressourcer eller nye systemer, så kan der skrues op for utryghedsdebat. Endda selv om den personfarlige kriminalitet i de fleste lande er generelt faldende. Det er let at få såvel politikere og medier spændt for en dagsorden af utryghed. De fleste vil hellere gribe gyset og frygten, når enkelte kriminalitetssager males bredt ud, end de statistikker, som påpeger, at trygheden faktisk burde være stigende. Det påvirker også politiets adgang til overvågning eller systemer, som risikerer at stigmatisere og måske ligefrem krænke borgernes rettigheder.

Udfordringen er nemlig, at en stor række af de systemer, som politi og myndigheder i dag gør brug af, er indført under en slags undtagelsestilstand, og derfor uden om den folkelige debat eller accept. Sådan som vi også kender det fra Corona-tiden.

Debatten om politiets brug af algoritmer fylder måske overraskende lidt – og det er til trods for, at de åbner uanede muligheder for at samkøre data, overvåge og trænge meget langt ind i borgernes privatliv.

AI og algoritmers tilgang til data er nemlig langt hen ad vejen sandsynlighedsberegning på baggrund af en enorm mængde input. Sandsynlighedsberegninger, som kan føre til tunnelsyn og stigmatisering.

Vi har allerede set mærkbare konsekvenser i USA, hvor forskellige politistyrker har forsøgt sig med såkaldt predictive policing. Altså algoritmer, som skal forudsige kriminalitet eller potentielle kriminelle.

De færreste ved dog, at dansk politi også benytter sig af algoritmer fra USA i systemet Pol-Intel. Det er tilmed et system, som er udviklet og styret af den kontroversielle amerikanske tech-mastodont Palantir. Selskabet har allerede leveret og hjulpet adskillige sikkerhedsfirmaer og myndigheder i USA og andre lande med at indsamle massive mængder af data om borgere.

Måske skyldes manglen på debat, at politiet selv lancerede Pol-Intel som et supervåben mod kriminelle. Hvem kan sige nej til den slags?

De sagde intet om, at Palantir har udrullet en række lignende systemer i USA med begrænset succes, når det handler om politiet. Datamængden og ekspertisen, som er påkrævet for, at algoritmerne kan tygge sig frem til et nogenlunde anvendeligt resultat, mangler ganske enkelt.

Sådan er det ikke helt i Danmark. Her flyder det med data og registre, så det virkelig vil noget. Det er et rent slaraffenland, når det handler om registreringer og overvågningskameraer. Derfor var Danmark også højt på Palantirs liste, da virksomheden ville ind på det europæiske marked.

Det krævede dog et par lovændringer herhjemme, for at det kunne lade sig gøre at passere de danske regler for databeskyttelse, hvilket skete meget hurtigt.

Palantir blev således grundstenen for det danske system Pol-Intel. Der er dog ingen, der helt kan svare på, i hvilket omfang systemet benyttes – eller hvordan systemet passerede så smertefrit gennem et ellers ganske forsigtigt justitsministerium.

Nogle politikere, som sad i relevante udvalg, har siden fortalt, at de fik meget tykke kompendier, som de ikke helt forstod og derfor ikke kunne spørge ind til. Og de fik derudover at vide, at det hele skulle gå meget hurtigt.

De færreste ved dog, at dansk politi også benytter sig af algoritmer fra USA i systemet Pol-Intel. Det er tilmed et system, som er udviklet og styret af den kontroversielle amerikanske tech-mastodont Palantir.

Palantir-algoritmer er i øvrigt også en såkaldt black box. Vi kan ikke kigge ind i den. Pol-Intel kan i princippet bruges til at hælde al tænkeligt data ind i og så siden spytte forudsigelser og sammenhænge ud. Meget smart og helt sikkert et godt værktøj – men også uden mulighed for, at borgerne aner, i hvilket omfang deres personlige data køres igennem, eller om data på en eller anden måde også rammer USA.
Eksemplet med Pol-Intel beskriver meget godt en udvikling, som foregår i hele verden omkring os i øjeblikket.

Myndigheder og politikorps forsøger at finde frem til måder, hvor AI-baserede systemer kan hjælpe dem med alt fra forebyggelse til opklaring af kriminalitet. Ja, de kan sågar – måske – forudsige, hvem der potentielt vil begå kriminalitet, så man kan have særlig fokus på dem allerede fra en tidlig alder. Sådan som det er sket i en række uheldige tilfælde fra USA, hvor systemer blev stoppet, da det kom frem, at de var biased og stemplede mennesker alene på grund af hudfarve og bopæl.

Diskussionen om politiets brug af data, AI og algoritmer har været mærkeligt fraværende i offentligheden i de fleste lande til trods for, at det kan betyde massiv overvågning, stigmatisering og endda eventuel misbrug af persondata.
Eksempelvis kunne Zetland i 2022 afsløre, at ”omkring 30 sager om misbrug af Pol-Intel viser, hvordan uskyldige borgere bliver endevendt i Pol-Intel… som var de mistænkte i kriminalsager”.

På CUPP-konferencen som afholdes netop nu på IT-Universitetet i København, den første af sin art, forsøger forskere fra flere lande via det såkaldte CUPP-projekt, Critical Understanding of Predictive Policing, at sætte fokus på politiets stigende brug og erfaringer med algoritmer. Og hvad det betyder for vores samfund og os som borgere.

Konferencen har fået titlen: The Discreet Charm of Prediction: Understandings of Digital Policing

Målet er at skabe det første internationale overblik over en udvikling, som er gået under de flestes radar. Herunder best practise og vidensdeling landene imellem, så systemer ikke implementeres og købes på kryds og tværs, men ud fra nogle retningslinjer og måske især sikkerhedshensyn.

Udfordringen er nemlig, at en stor række af de systemer, som politi og myndigheder i dag gør brug af, er indført under en slags undtagelsestilstand, og derfor uden om den folkelige debat eller accept. Sådan som vi også kender det fra Corona-tiden. Det kan være terrortrusler eller bandekrig, eller som nævnt corona. Politisk er det gået igennem, ikke via fokus på selve systemet og konsekvenserne af systemet, men snarere ved at skabe utryghed og derefter præsentere systemet som en tryghedsforanstaltning, til trods for, at der er tale om massiv indgriben i vores privatliv og brug af vores data.

For mange kan det umiddelbart lyde som en lille pris at betale for at beskytte sig mod død, ulykke, pandemi og kaos.

Men det sker uden, at vi reelt ved og kan gennemskue, hvad det indebærer, eller hvad der sker.

Et eksempel kendes ansigtsgenkendelse og kameraer i det offentlige rum, som blandt andre Sverige nu indfører i forlængelse af en eskalerende bandekrig.

Det sker uden umiddelbar videnskabelig evidens for at det overhovedet har en effekt, men er et stort indgreb i den private frihed.

Det skal i øvrigt påpeges, at bortset fra bandekrigen i Sverige er kriminaliteten og særligt den personfarlige generelt faldende i det meste af Europa. Og har været det i flere år.

Der er ganske rigtigt sket en større stigning i cyberkriminalitet og cybertrusler, men det klares næppe med kameraer og udøves i øvrigt ofte af personer, som end ikke befinder sig i det land, hvor borgeren rammes.

Diskussionen om politiets brug af data, AI og algoritmer har været mærkeligt fraværende i offentligheden i de fleste lande til trods for, at det kan betyde massiv overvågning, stigmatisering og endda eventuel misbrug af persondata.

Den fortælling sælger dog hverken overvågningssystemer eller algoritmer.

Der er brug for en ny debat omkring brugen af AI i politiarbejdet og ikke mindst åbenhed omkring, hvad systemerne bruges til og af hvem. Og ikke mindst, hvordan borgerne bliver beskyttet mod misbrug.

Den debat mangler.

Vi aner ikke, hvordan data flyder rundt, benyttes og bevæger sig hen over grænser, når det handler om politikorps – også internationalt.

Et vigtigt første skridt bliver taget på ITU-konferencen. Det burde interessere os alle, også politisk.