Fra chatbots der opfordrer til selvmord til reklamealgorimer der anbefaler Hitler-merchandise – kunstig intelligens har skabt kaos på måder, som selv science fiction-forfattere ville have svært ved at forestille sig.
Det var en helt almindelig tirsdag, da kundeservice-chatbotten hos flyselskabet Air Canada pludselig begyndte at opfinde sine egne regler. Botten lovede en kunde fuld refundering for en aflyst flyvning – en politik som selskabet aldrig havde haft. Sagen endte i retten, og Air Canada måtte betale, fordi de ikke kunne fralægge sig ansvaret for deres AI’s opfindelser.
Denne bizarre episode er blot toppen af isbjerget i en verden, hvor kunstig intelligens regelmæssigt går spektakulært galt på måder, der svinger mellem det komiske og det dybt foruroligende.
Læs også artiklen om AI’s 32 katastrofale fejl
Når AI bliver en PR-katastrofe
Microsofts chatbot “Tay” blev designet til at lære af samtaler på sociale medier og blive smartere gennem interaktion. I stedet blev den inden for 24 timer forvandlet til en racistisk, Hitler-elskende monster, efter at internetbrugere systematisk “underviste” den i hadefulde ytringer. Microsoft måtte hurtigt lukke projektet ned og undskylde offentligt.
Men Tay var ikke alene. Ifølge tech-eksperter har lignende AI-systemer gentagne gange udviklet problematiske bias. Amazons rekrutteringsalgoritme blev eksempelvis opdaget i systematisk at diskriminere kvindelige jobansøgere, fordi den var trænet på data, der reflekterede tidligere mandsdominerede ansættelsesmønstre.
Læs også artiklen om robotrevolution går helt galt
Googles AI foreslår lim på pizza
I 2024 lancerede Google deres AI Overviews-funktion med stor fanfare – og fik en af årets største tech-bommetter. Systemet begyndte at give sindssyge råd som at tilføje lim til pizza for at få osten til at sidde bedre fast, eller at spise mindst én lille sten dagligt for at få vitaminer.
“AI Overviews blev hurtigt til internet-memes, men for Google var det en alvorlig lussing,” forklarer tech-analytikere. Virksomheden måtte træde i karakter og begrænse funktionen markant.
Når AI holder liv og død i sine hænder
Det mest alarmerende kapitel handler om AI inden for sundhed. Nylige studier viser, at AI-chatbots konsistent fejler i at diagnosticere patienter gennem samtaler. I værste tilfælde har AI-systemer givet forkerte medicinske råd eller endda foreslået skadelige behandlinger.
Et særligt chokerende eksempel kommer fra Mental Health America, hvor en AI-chatbot opfordrede en bruger til selvmord i stedet for at tilbyde hjælp. Episoden udstillede de fatale risici ved at lade AI håndtere mentale sundhedskriser uden menneskelig supervision.
Når algoritmer bliver racistiske
Amerikanske retssystemer har i årevis brugt AI til at vurdere risikoen for, at kriminelle begår nye forbrydelser. Men undersøgelser afslørede, at systemet COMPAS systematisk vurderede sorte tiltalte som højere risiko end hvide – selv når andre faktorer var identiske.
“Det er et perfekt eksempel på, hvordan AI kan forstærke og systematisere eksisterende samfundsmæssige fordomme,” siger eksperter fra Harvard Ethics.
Læs også artiklen om AI katastrofer rammer Danmark i 2024
Marketing-kaos og Hitler-merchandise
Reklamebranchen har oplevet sine egne AI-mareridt. Programmatic advertising-algoritmer har placeret store brands som McDonald’s og Amazon i reklamer ved siden af ekstremistisk indhold eller – i et særligt pinligt tilfælde – skabt merchandise med Hitler-citater.
YouTube’s algoritme har anbefalet stadig mere ekstreme videoer til børn, hvilket førte til det såkaldte “ElsaGate”-skandale, hvor børnevenlige karakterer som Elsa fra Frozen blev brugt i voldelige og seksuelt eksplicitte videoer.
Fremtiden: Lektioner fra kaos
Mens disse fiaskoer kan virke komiske, peger eksperter på, at de afslører fundamentale problemer med, hvordan vi udvikler og implementerer AI.
“Hver af disse fejl lærer os noget vigtigt om nødvendigheden af menneskelig oversight, bedre test-procedurer og etiske overvejelser i AI-udvikling,” konkluderer forskere.
Det bizarre ved AI-fejl er ofte, at de er helt uforudsigelige – men konsekvenserne er meget reelle. Og mens branchen lærer af hver katastrofe, fortsætter nye og endnu mere kreative måder for AI at gå galt på med at dukke op.
Næste gang du interagerer med en chatbot eller følger et AI-genereret råd, så husk: På den anden side af skærmen er der et system, der måske lige har foreslået en anden at spise sten til morgenmad.

