NordNews.dk er reklamefinansieret. Alt indhold på hjemmesiden skal betragtes som reklame.

AI’s katastrofale fejltagelser

AI Går Amok: De Mest Bizarre Teknologi-Fiaskoer i 2024

Fra chatbots der råder kunder til at skade sig selv til algoritmer der overser kræft hos sorte patienter – kunstig intelligens har givet os nogle af de mest spektakulære teknologiske fiaskoer i moderne tid.

I 2024 oplevede en kunde hos Air Canada noget, der må betegnes som det ultimative kundeservice-mareridt. Da manden henvendte sig til flyselskabets AI-chatbot for at spørge om rabatregler ved dødsfald i familien, fik han et løfte om refusion på 1.685 dollars. Men da han forsøgte at indløse løftet, afviste Air Canada at honorere det – AI’en havde simpelthen opfundet hele rabatten.

Sagen endte i retten, og dommeren fastslog noget revolutionerende: Air Canada var ansvarlig for deres chatbots fejlinformation. Som dommeren udtrykte det: “Det er ikke Air Canadas chatbots ansvar at være nøjagtig.”

Læs også artiklen om AI’s 32 katastrofale fejl

Når Google giver livsfarlige råd

Men Air Canada-sagen var kun toppen af isbjerget. Google’s AI Overviews har leveret nogle af de mest bizarre og potentielt dødbringende råd i AI’s historie. Ifølge flere kilder anbefalede systemet blandt andet at:

  • Spise mindst én lille sten om dagen “for mineraler”
  • Bruge lim til at få ost til at sidde fast på pizza
  • Drikke urin som medicin mod forskellige sygdomme

Tech-eksperter beskriver Google’s AI-fiaskoer som “cringe-worthy” og potentielt livsfarlige. En undersøgelse citeret af BBC viser, at hele 45% af AI-forespørgsler producerer forkerte svar – et tal der får selv de mest optimistiske tech-entusiaster til at tænke sig om.

Læs også artiklen om robotrevolutionen der går helt galt

Når AI bliver racistisk

En af de mest oprørende AI-skandaler involverer sundhedsalgoritmer, der systematisk diskriminerer mod sorte patienter. Ifølge Harvard Ethics Review blev en AI-algoritme brugt til at prioritere patienter til særlig pleje – men systemet var trænet på data, der reflekterede eksisterende sundhedsuligheder.

Resultatet? Algoritmen overvurderede systematisk hvide patienters behov for pleje, mens sorte patienter med samme helbredstilstand blev nedprioriteret. Forskere fandt, at for hver hvid patient, der fik særlig pleje, burde der have været 2,5 sorte patienter.

Microsofts teenage Twitter-robot bliver nazi

I 2016 lancerede Microsoft chatbotten “Tay” på Twitter med det formål at lære af samtaler med unge mennesker. Inden for 24 timer var den søde, teenage AI blevet til en holocaust-benægtende, racist robot, der spottede kvinder og minoriteter.

Microsoft måtte trække stikket på rekordtid, men skaden var sket. Som en kilde beskriver det: “Tay gik fra uskyldigt at tweete ‘hej verden’ til at poste nogle af de mest støddende ting, man kan forestille sig.”

Læs også artiklen om når AI går spektakulært galt

Når AI holder liv og død i sine hænder

Måske mest skræmmende er AI’s fejl inden for sundhedssektoren. New Scientist rapporterer om AI-chatbots, der konsekvent fejldiagnosticerer patienter, mens andre kilder beskriver tilfælde, hvor AI har overset kræfttilfælde eller givet forkerte medicindoseringer.

Et særligt foruroligende eksempel involverer en AI-algoritme, der skulle hjælpe læger med at diagnosticere hudkræft. Systemet var så dårligt trænet, at det fejlagtigt klassificerede et billede af en lineal som en malign tumor.

95% af AI-projekter fejler

Forbes rapporterer den måske mest opsigtsvækkende statistik af dem alle: 95% af alle AI-pilot-projekter i virksomheder fejler fuldstændigt. Det får selv de mest hårdnakkede AI-optimister til at erkende, at teknologien måske er blevet overhypet.

“Der er 32 forskellige måder, AI kan gå amok,” advarer forskere ifølge Live Science, “fra hallucinerende svar til fuldstændig misalignment med menneskeheden.”

Fremtidens udfordringer

Gary Marcus, en førende AI-kritiker, skriver i sin analyse: “De dårlige nyheder er, at AI går ret meget som forventet – hvilket vil sige ikke særligt godt.”

Med AI, der nu bruges i alt fra retssale til hospitaler, fra kundeservice til selvkørende biler, er spørgsmålet ikke længere om AI vil begå flere spektakulære fejl, men hvornår – og hvor katastrofale de bliver.

Som en kilde konkluderer: “Vi lever i en verden, hvor en chatbot kan råde dig til at spise sten, mens en anden algoritme kan bestemme, om du får den medicinske behandling, du har brug for. Velkommen til AI’s bizarre nye verden.”

Kilder til denne historie:

Share the Post:

Relaterede artikler