It og samfund, Big data

Til kamp mod Big Dick Data-projekter

Big Data, æltet især af kunstig intelligens (AI), fremføres som løsningen på alskens udfordringer, skriver journalist Dorte Toft i denne klumme.

Træt af fokus på køn og it eller ej? Uanset svar, så er det nye akademiske begreb Big Dick Data værd at notere sig. Det gælder især den massive promovering af Big Data koblet til en skidt årsag – nemlig en slags penismålingskonkurrence. Nogen skal blot punge ud til konsulenterne og/eller forskerne, og de gør ordregiveren til King of the World.

Big Data, æltet især af kunstig intelligens (AI), fremføres som løsningen på alskens udfordringer, hvad enten nogen vil identificere dårlige forældre, slippe for dyre ansatte, forudsige kriminalitet, udvikle mirakelmedicin, eliminere terrorisme, opnå total kontrol eller andet. Der oversælges, og nogen hopper på det.

Problemerne ligger ikke kun i de data, der former AI, men også i, at der i udviklergruppen mangler nogen, der undrer sig i tide

Bag Big Dick Data-begrebet står lektorerne C. D’Ignazio, MIT ved Boston, og L. Klein, Emory University i Atlanta, og det lanceres i bogen ”Data Feminism”. Frækheden er på vanlig amerikansk vis maddingen, som journalister bider på. Men begrebet udgør også en god metafor.

Et lignende begreb har været savnet. Bare tænk på, da McKinseys gutter fik overbevist politikere om, at de med et nyt it-system ville kunne fyre 1.000 ansatte i Skat. Det var Big Dick IT, en grandios prognose renset for erkendelse af, at skattefolk er pengene værd, og ædt begejstret af ministre.

Tænk også på de private firmaer, der blev forført til at installere superkomplekse ERP-systemer, selv om flere af dem med stor fordel kunne have nøjedes med noget enklere, billigere og mindre risikabelt.

Bogen ”Data Feminism” har desuden fokus på, at data ikke altid er neutrale. Kendt er for eksempel, at både billed- og talegenkendelse fejler mindst, når det gælder hvide mænd.

Kendt er også kønsstereotypers påvirkning af automatisk oversættelse og udformning af robotter. Ligeledes hvordan racefordomme er indbygget i AI-baserede retssystemer i USA.

Problemerne ligger ikke kun i de data, der former AI, men også i, at der i udviklergruppen mangler nogen, der undrer sig i tide. Der mangler diversitet.

Bogen skal bidrage til, at fremtidens systemer hverken spejler fordomme eller forstærker dem, og at de også på anden vis er etisk forsvarlige. Og bogen vil få sat en stopper for at skyde gråspurve med kanoner. Den udkom i marts og er især rettet mod akademia.

Lidt i samme boldgade, men til en bred målgruppe, er den prisbelønnede bog ”Invisible Women: Data Bias in a World Designed for Men”, som jeg kun kan anbefale. Forfatteren, britiske Caroline Criado Perez, favner det meste.

Fra it-systemer, symptomer, test af medicin og temperaturen i kontorlandskaber til sikkerhed i biler. Bogen er underholdende og til tider skræmmende, for prisen for blinde kønsvinkler er ikke blot irritation, men også liv.