Deep fakes opløser limen, som ellers binder os tillidsfuldt sammen

AI kunstig intelligensIT PolitikNiels Bertelsen
Deep fakes er et kæmpe problem for samfundet, og den tillid som binder os sammen som velfungerende demokrati.. Vi har nemlig intet reelt modsvar endnu. Ofte skubbes ansvaret over på modtagerne – altså os borgere – som må sortere selv. Det skriver formand Niels Bertelsen. Han opfordrer politikerne til handling og til at lytte til eksperterne, inden det er for sent.

Debatten om deep fakes føles forbløffende afdæmpet i forhold til, hvor alarmerende problemet egentlig er.
Vi burde høre skingre advarsler og se blinkende faresignaler overalt – for det er et massivt angreb på selve den tillid, der holder samfundet sammen.

Politikerne kalder det en trussel, og det er alvorligt.
Men der ligger samtidig en næsten resigneret accept af, at udviklingen er uundgåelig. AI-modeller bliver dag for dag bedre, nemmere at bruge og mere overbevisende, når de forfalsker videoer, stemmer og personer.

Det er ikke bare bekymrende – det er en farlig cocktail, der langsomt opløser den lim af tillid, vi har opbygget gennem demokrati, oplysning, uddannelse og fælles internationale spilleregler.

En verden i opbrud, hvor det bliver stadig sværere af få det til at hænge sammen, og hvor du ikke med sikkerhed kan stole på, hvad du ser og hører, selv om det ser ægte ud, og hvor grænsen mellem ægte og manipuleret er udvisket i en grad, så det næsten er umuligt at finde den.

Vi har intet reelt modsvar endnu. Ofte skubbes ansvaret over på modtagerne – altså os borgere – som må sortere selv. Men i princippet kan vi ikke længere have tillid til videomateriale uden at bruge tid på at faktatjekke det. Og det gør de færreste. Digitalt indhold spredes lynhurtigt, mens verifikation er langsom og besværlig. Vi vil videre med det samme – ikke stoppe op og undersøge.

I mellemtiden formes vores verdensbillede af det, vi ser i høj hastighed. Deep fakes kan målrettes enhver: børn, voksne, politisk venstre, højre, klimabenægtere, klimaaktivister – alle kan fodres med troværdigt falske videoer af politikere, meningsdannere, eksperter eller kendisser. Klik, del, scroll – uden at opdage, at det hele er fabrikeret.

Det er allerede i dag nemt, billigt og effektivt at lave en falsk video af både Mette Frederiksen, Putin eller Zelenskyj – videoer, hvor de siger ting, de måske kunne have sagt, men som aldrig er sket.

Et eksempel: Den amerikanske politiker Alexandria Ocasio-Cortez (AOC) blev vist i en video, hvor hun tilsyneladende holdt en tale i Repræsentanternes hus til støtte for et woke-budskab. Hun har historisk støttet lignende synspunkter, så videoen virkede troværdig.

Den spredte sig som en steppebrand – men var falsk. Den var blevet produceret og spredt strategisk af modstandere og med succes. Da sandheden kom frem, var skaden sket. Berigtigelser er altid sværere at få ud over rampen virtuelt, usandhederne har det med at klæbe stædigt fast. Om ikke andet, fordi de spreder et indtrykk af, at der måske er noget om snakken.

Især fordi algoritmer skaber ekkokamre, hvor indhold deles ud fra, hvad folk allerede mener og føler, ikke hvad der er sandt. De giver folk, den fortælling, de helst vil bekræftes i.

Eksemplet er ét blandt tusinder. Ikke ekstremt, men alligevel undergravende for demokratiet. Det siger lidt om den ekstreme nedslidning af tillid, dialog og troværdighed i demokratiet, som er sket og som vil accelerere.

En dråbe er ikke slem, men mange millioner skaber et hav af mistillid, konflikt og opløsning. Og det er kun én side af problemet. Vi taler slet ikke nok om de mørkeste anvendelser: hævnporno, afpresning, mobning, børneporno. Uskyldige mennesker kan få deres liv ødelagt på sekunder, mens det kan tage år – hvis nogensinde – at reparere skaden.

Big Tech har et enormt ansvar. De platforme, der spreder falske videoer, og de firmaer, der har trænet modellerne bag dem, skal holdes juridisk og økonomisk ansvarlige.

Sanktionerne skal være så mærkbare, at det kan betale sig at filtrere og stoppe falsk indhold hurtigt og effektivt.

Vi har brug for hegnspæle nu.
En stor, grundig debat, så vi forstår, at det her er en direkte trussel mod vores mest værdifulde goder: tillid og troværdighed. Begge er allerede under pres – og nedslidningen går hurtigt.
Jeg glæder mig naturligvis over, at regeringen i en pressemeddelelse 26. juni meldte ud, at:

Den politiske aftale vil blive udmøntet i et lovforslag, som skal gøre det ulovligt at dele eksempelvis deepfakes og andre digitale efterligner af personlige kendetegn. En deepfake kan være en meget virkelighedstro gengivelse af en person, herunder vedkommendes udseende og stemme. Parodier og satire vil naturligvis fortsat være mulige at lave”.

Det er et vigtigt skridt, men også kun et første skridt. For deep fakes er her, vil blive lavet og hostet af Big tech også uden for Danmarks grænser og lovgivning.