Enkelte problemer bør ikke løses ved hjelp av AI.
Akkurat nå leser andre
Kunstig intelligens har raskt blitt noe nesten alle dansker kjenner til. Enten det er i jobbsammenheng eller bare for hverdagslige spørsmål fra privatlivet, har AI blitt manges foretrukne hjelper for å løse problemer.
Teknologi kan være praktisk, men den bør brukes med forsiktighet. Spesielt når det gjelder hjemmesikkerhet, er det en dårlig idé å stole på en chatbot for å få hjelp.
Dette er advarselen fra Cnet.
Språkbaserte AI-modeller er trent til å gi raske, velartikulerte svar, ofte med høy grad av respons.
Dette kan være et problem når temaet handler om innbruddsbeskyttelse, brannsikkerhet, overvåkingsutstyr eller aktuelle trusler.
Les også
Modeller kan komme opp med detaljer som høres plausible ut, men som ikke er korrekte. Et eksempel som har sirkulert mye er påstanden om at en Tesla kan koble seg til et hjems alarmsystem.
Forklaringen kan være en forveksling med funksjoner som garasjeportstyring, men resultatet er at brukeren sitter igjen med ubegrunnet frykt og et feilaktig beslutningsgrunnlag.
Ved skogbranner, flom og uvær har brukere forsøkt å få konkrete råd om risiko og utvikling. Chatboter kan i beste fall henvise til myndigheter og lokale kanaler, men kan ikke gi de kontinuerlige oppdateringene som en farlig situasjon krever. I praksis kaster man bort tid hvis man leter etter svar der mens situasjonen utvikler seg.
Risikoen eksisterer også når man spør om produsenters sikkerhetshistorikk. En chatbot kan gi en oversikt over et selskap, men kan overse viktige hendelser, blande sammen datoer eller utelate viktige oppdateringer om datainnbrudd og endringer i retningslinjene.
Uten en presis tidslinje blir produktanmeldelser raskt misvisende. Det samme problemet ser man med abonnementer, hvor svarene ofte er upresise, selv om informasjonen vanligvis er tydelig i produsentens vilkår og betingelser eller i profesjonelle testguider.
Les også
Personopplysninger bør også holdes unna samtaler om hjemmesikkerhet. Adresse, rutiner og betalingsinformasjon er ikke informasjon som bør deles i en chat, uansett hvor uskyldig forespørselen virker.
Trygge valg tas best med kilder som kan dokumentere, oppdatere og holdes ansvarlige. Produsentenes egne nettsteder, uavhengige testmedier, myndigheter og nødsentre er tregere enn en rask AI-respons, men de er også langt mer pålitelige når hjemmets sikkerhet står på spill.