Forside LIVSSTIL Han ville bare spise sunnere – endte i psykose etter...

Han ville bare spise sunnere – endte i psykose etter AI-råd

En 60-åring i USA ba en chatbot om hjelp til å kutte ned på salt. Svaret han fikk, sendte ham rett inn i en farlig spiral – og videre til sykehus.

Akkurat nå leser andre

Det hele startet uskyldig nok. Mannen, som ville redusere saltinntaket sitt, tok kontakt med en populær AI-chatbot for å få enkle kostholdsråd. Men i stedet for å anbefale vanlige alternativer som urtesalt eller krydder, fikk han et tips som nesten kostet ham livet: Bytt ut natriumklorid (vanlig bordsalt) med natriumbromid. Det skriver omni.se.

Problemet? Natriumbromid er ikke noe du finner i krydderhyllen – det er et giftig stoff som brukes i alt fra plantevernmidler til rengjøringsmidler. I for store doser kan det gi alt fra hallusinasjoner til koma.

Ifølge en fersk rapport i Annals of Internal Medicine utviklet 60-åringen en psykos etter å ha fulgt rådet. Først etter at han kom til behandling klarte han å fortelle legene hva han hadde spist – og at han hadde fått tipset fra en chatbot.

Det amerikanske mediet 404 Media har testet lignende forespørsler, og fant at det var overraskende enkelt å få AI-en til å anbefale natriumbromid.

En ubehagelig trend

Saken føyer seg inn i en voksende rekke bekymringsfulle AI-hendelser. I flere land har avanserte språkmodeller blitt brukt til å lage falske ID-er, deepfake-videoer og andre former for manipulasjon.

Les også

Forskere har også advart om at AI kan forsterke psykiske problemer, påvirke språkbruk, og til og med diskriminere i jobbsammenheng. Studier viser at enkelte modeller har gitt kvinner lønnsråd som er lavere enn for menn med samme kvalifikasjoner.

I tillegg har store teknologiselskaper blitt beskyldt for å tråkke over opphavsrettslover ved å bruke materiale uten tillatelse – noe som har ført til både rettssaker og krav om strengere reguleringer.

Når maskinen ikke vet best

Denne historien er en brutal påminnelse om at AI-råd ikke alltid er trygge, selv når de høres plausible ut. Et lite feilgrep i algoritmene kan få store, menneskelige konsekvenser.

Eller som en av legene bak rapporten formulerte det: «Vi må behandle AI-råd med samme skepsis som vi ville gjort med et anonymt innlegg på internett.»

Ads by MGDK