Software, It og samfund, Big data

Det menneskelige kompas

Foto: Magnus Møller

Han er formentlig verdens første af sin slags. En dataetisk ombudsmand, som jonglerer med komplekse dilemmaer om kunstig intelligens i IBM og forsøger at fastholde en menneskelig dimension i den teknologiske udvikling. ”Vi bliver i ekstrem grad ramt af digitaliseringen, men vores dannelse skal følge med”, siger Kim Escherich.

Kim Escherich husker tydeligt den 5. november 2019. Det er dagen, hvor det går op for ham, at han ikke har lov til at kalde sig dataetisk ombudsmand. En titel han har fået knap et år tidligere, da IBM Danmark beslutter at sætte dataetik øverst på dagsordenen både internt i virksomheden og i offentligheden.

– IBM modtog simpelthen et brev fra Folketingets Ombudsmand, der lod os forstå, at det kun er ham, der må bruge den titel, siger Kim Escherich.

Næste dag skulle han afvikle et dataetisk dilemmaspil foran 800 mennesker i KB-Hallen, så han fik travlt med at ændre sin præsentation. Også i IBMs amerikanske hovedkvarter blev det bemærket, at den danske afdeling havde udnævnt en dataetisk ombudsmand.

– Men vi har altid været anarkister i IBM Danmark. Vi har lavet en del ting, som er rygtedes ude i verden, siger Kim Escherich, der nu kalder sig AI-dataetisk rådgiver og innovationsarkitekt.

Et spejl på væggen

Foto: Magnus Møller

Kim Escherich har siden 2003 været ansat i forskellige kreative ledelsesroller i IBM. Men behovet for at sætte øget fokus på de dataetiske dilemmaer ved kunstig intelligens er blevet mere og mere klart for ham i de senere år.

Særligt én episode var en øjenåbner. Under et oplæg for ledere i den danske forsikringsbranche om IBMs berømte Watson AI præsenterede han et tænkt eksempel om at installere sensorer i toiletspejlene på arbejdspladserne, som aflæser medarbejdernes fysiske tilstand baseret på ansigtsfarve, mimik og rynker.

Sensorerne kan også forudsige hjertekarsygdomme, inden de opstår, aflæse blodtryk og andre sundhedsdata – og dermed danne grundlag for prissætningen af sundhedsforsikringer.

Alle de tilstedeværende forsikringsselskaber ville tage imod en sådan teknologi med åbne arme, fortæller Kim Escherich.

– Det var ganske chokerende. Jeg ved godt, at data og evnen til at forudsige hændelser er væsentlige parametre for forsikringsselskaber, men det rejser det etiske spørgsmål om, hvor vidt vi som samfund vil have solidariske eller individbaserede forsikringer, og om vi er interesserede i at få billigere forsikringer, hvis vi udleverer vores sundhedsdata, siger Kim Escherich.

Hvis man havde vidst, at udbredelsen af AirBnB ville udradere hele den gamle bydel i Barcelona for faste beboere, ville man så have udviklet konceptet?

Foto: Magnus Møller

Efterfølgende gik han i gang med at formulere flere dilemmaer, som kan danne grobund for diskussioner om, hvad vi vil med kunstig intelligens.

Med en baggrund som cand.polit. har Kim Escherich både matematik, statistik og den videnskabelige metode med i bagagen, og i 1990erne arbejdede han med mainframecomputere i Magasins it-afdeling, hvor data blev lagret på magnetbånd.

– Jeg var dét, man kalder en båndabe, siger han.

Siden gik vejen til Nationalbanken, Privatbanken og Unibørs som it-konsulent og senere partner i PWC, inden han endte i IBM.

Antidepressive data

Som AI-dataetisk rådgiver tilbyder han alle medarbejdere i IBM at spille en times dataetisk dilemmaspil, som trækker fronterne op og sætter tankerne i gang om de udfordringer og faldgruber, som den kunstige intelligens rummer.

– IBM har på globalt plan en filosofi om, at alle medarbejdere har et etisk medansvar – både dataloger, arkitekter, sælgere og programmører. Derfor besluttede vi at uddanne alle medarbejdere i, hvordan vi skal agere i en verden, hvor der er adgang til enorme datamængder med en meget reel mulighed for misbrug og overvågning, siger Kim Escherich.

Han trækker et tænkt dilemma frem om et medicinalfirma, der har indsamlet store mængder personlige data fra brugere af antidepressive midler, så man kan se deres historik. Hvis disse data holdes op mod data fra Facebooks brugere, er det muligt at forudsige, hvem der er disponeret for depression i fremtiden. Dermed kan produktet markedsføres til dem som målrettede annoncer.

– Er det uetisk? I de fleste tilfælde er det jo ikke den tekniske løsning, der er problemet. Det er konsekvenserne, der er uetiske. Hvis man havde vidst, at udbredelsen af AirBnB ville udradere hele den gamle bydel i Barcelona for faste beboere, ville man så have udviklet konceptet? Derfor er der brug for at have en mere holistisk tilgang. Det er min rolle, siger Kim Escherich. 

Foto: Magnus Møller

Et andet eksempel er udviklingen af teknologi til ansigtsgenkendelse. IBM har i årevis har spillet en aktiv rolle i at sikre, at teknologien kun anvendes til samfundsnyttige formål – og ikke på områder, hvor den kan skade menneskerettigheder eller bidrage til diskrimination.

Kunstig intelligens er et ekstremt kraftigt værktøj, der giver mulighed for at forandre verden på godt og ondt

Både IBM, Microsoft og Amazon indstillede i juni 2020 helt eller delvist deres udvikling og salg af teknologien i kølvandet på flere episoder, hvor amerikansk politi foretog voldsomme anholdelser af Black Lives Matter demonstranter. Kameraer med ansigtsgenkendelse spillede i flere tilfælde en kritisabel og fejlbehæftet rolle.

– Det er et eksempel på en umoden teknologi, som har vist sig at indeholde en stor risiko for indbygget bias eller diskrimination. Kunstig intelligens er et ekstremt kraftigt værktøj, der giver mulighed for at forandre verden på godt og ondt, siger han.

Vi er på vej ind i en uhyggelig teknologisk fremtid 

Da Københavns Politi forrige år udtrykte varme følelser for teknologi til ansigtsgenkendelse, diskuterede Kim Escherich og den øvrige IBM-ledelse, hvad de skulle stille op, hvis de fik en konkret henvendelse om at levere udstyr til politiet.

– Vi vurderede, at det ville være usmart at sælge og implementere disse teknologier uden diskussion om de etiske faldgruber og konsekvenser, så vi ville nok blive lidt besværlige. Men heldigvis ringede de ikke, siger Kim Escherich.

Grædende skulder

I rollen som AI-dataetisk rådgiver er det ikke ham, der beslutter, om en bestemt teknologi skal udvikles eller smides i skraldespanden. Han er ikke dommer. Men han kan yde fagligt modspil, hvis en medarbejder for eksempel har fået en forespørgsel fra en kunde om at udvikle et særligt AI-værktøj, der kan optimere forretningen eller markedsføringen af et produkt – men samtidig rummer et etisk dilemma.  

– Jeg er den skulder, de kan græde ud ved. Det handler om at bruge det menneskelige kompas, når vi ikke kan gennemskue teknologien eller forstå konsekvenserne af den, siger han.

Endnu er han ikke blevet overrendt af medarbejdere, men han er sikker på, at frekvensen bliver øget i de kommende år. For vi i er på vej ind i et farligt landskab i takt med væksten i de datamængder, som vi alle sammen bidrager til gennem vores brug af mobiltelefoner, apps, internet, sociale medier og Internet of Things (IoT), mener Kim Escherich.

– Det handler om overvågningskapitalismen, datahøsten på sociale medier og konspirationsteorier og ekkokamre på Facebook. Det er overvældende. Og mange mennesker mangler forståelsen af, at når noget er gratis, så betaler du med dine personlige data. Dermed kan virksomheder skabe din digitale tvilling til at lave præcise forudsigelser af dit forbrugsmønster, siger Kim Escherich.

Foto: Magnus Møller

En ny dannelsesrejse

Kim Escherich definerer sig selv som humanist, filosof og aktivist, og han har adskillige filantropiske projekter bag sig ved siden af sin professionelle karriere. Og når det gælder digital dannelse og teknologiforståelse, så rækker han tilbage til Grundtvig, Kold og den danske højskolebevægelse, som ifølge Kim Escherich ”flåede bønderne op ad plovfurene og ind på skolebænken” og gav en almen dannelse og samfundsforståelse.

– Det har i meget høj grad formet det samfund, vi har i dag. Min store drøm er, at vi kan gøre noget tilsvarende i dag. Hive børn og voksne væk fra skærmene og give dem samme dannelsesrejse som dengang, så de kommer ud med en mere kritisk forståelse af teknologien, siger han.

For to år siden designede han sammen med en flok ligesindede den nye højskolebevægelse Fremvirke, som gennem sang, varieté og dilemmaspil forsøgte at klæde folk bedre på til at forstå og modstå den digitale forandring, vi står midt i. Og der er nok at tage fat på, fastslår Kim Escherich.

– Det, vi har behov for som mennesker i den digitale tidsalder, er at kunne navigere i noget, vi ikke har set før. Lige nu er det måske overskueligt, men vi er på vej ind i en uhyggelig teknologisk fremtid med VR, AR, nanoteknologi med nye materialer vi aldrig har set før, og bioteknologi, hvor vi kan hacke os til et nyt liv. Hvordan skal vi navigere i det, spørger han.

Svaret skal blandt andet komme gennem en levende debat om, hvordan teknologierne påvirker os som mennesker og samfund.

– Almendannelse er det, vi lærte i skolen i fag som matematik, retskrivning og historie. Digital dannelse er, at vi ikke skal dele nøgenbilleder online. Dannelse – det er hvad, der er tilbage, når vi har glemt, hvad vi har lært. Og dannelsen skal vi bruge i de situationer, hvor erfaring, moral eller lovgivning ikke kan dæmme op for de dataetiske udfordringer, siger Kim Escherich.

Algoritmisk autoritet

Hvordan kan mindre it-virksomheder arbejde med de problematikker, du rejser?

– Man må i første omgang spørge sig selv, om man skal opfinde noget, bare fordi det er muligt. Der vil altid være nogle, der er enormt teknologioptimistiske, men det er ledelsen, der har det etiske ansvar. Man kan komme langt med et grundkursus i filosofi og etik og ved at læse digte og verdenslitteratur.

Er vi som samfund for tillidsfulde i forhold til kunstig intelligens?

– Vi skal i hvert fald passe på med at tillægge modellerne en algoritmisk autoritet. Vi har i de sidste 50 år opbygget en enorm tillid til de mainframecomputere, der blandt andet beregner vores skat. I dem kan vi gennemskue koden og se, at 2+2 er 4. Med de neurale netværk kan vi ikke forstå det. Alligevel tror vi på det, når den siger, at 2+2 er 4,2. Og det er farligt. Vi skal lade være med at tage den autoritative tankegang med over til den kunstige intelligens.

Umiddelbart efter dette interview valgte Kim Escherich at sige farvel til IBM og tage imod en frivillig fratrædelsesordning.

CV Kim Escherich

ALDER: 56 ÅR

UDDANNELSE: Cand.polit. fra Københavns Universitet. Diplomuddannelse i strategitænkning i IT-industrien. 

KARRIERE:

1991-1994 Leder af it-drift og strategi i Unibørs

1994-2002 Management­konsulent og senere partner i PWC

2003-2012 Partner og it-arkitekt IBM Nordic

2012-2015 Executive Innovation Architect, CTO-Team, IBM Europe

2015-2017 Pan-European Innovation Architect, IBM Watson IoT Europe

2017-2019 Innovationsarkitekt på Watson AI og IoT i IBM

2019- AI-etisk rådgiver i IBM

Medstifter af den biodynamiske restaurant Muldiverset (2019-) og stifter af tænketankene Foodpeace (2014-), Nordic Bildung og Fremvirke (2018-2020) samt Danmark 5.0 (2016-2019). Medlem af Faculty med speciale i IoT, AI og Smart Cities hos SingularityU Nordic (2018-).

Kommentarer

Log på Mit PROSA for at se eller skrive en kommentar til artiklen