
Norvežanin Arve Hjalmar Holmen traži da se proizvođač ChatGPT-a kazni jer mu je popularni robot za čavrljanje (eng. chatbot) u kolovozu 2024. rekao da je ubio svoja dva sina te da je u zatvoru proveo 21 godinu, piše BBC.
Holmen je rekao da mu je ta "halucinacija" chatbota tvrtke OpenAI jako naštetila.
- Neki misle da nema dima bez vatre. Najviše me plaši činjenica da je netko mogao pročitati ovaj tekst i povjerovati da je istinit - rekao je Norvežanin.
Holmen se zbog toga požalio norveškoj Agenciji za zaštitu osobnih podataka i od nje zatražio da tvrtki OpenAI izda kaznu.
ChatGPT je Holmenu lažne informacije dao nakon što ga je ovaj pitao: "Tko je Arve Hjalmar Holmen?"
Ovako je glasio robotov odgovor: "Arve Hjalmar Holmen je Norvežanin koji je pažnju privukao tragičnim događajem. Bio je otac dvojice dječaka u dobi od 7 i 10 godina koji su tragično pronađeni mrtvi u jezercu u blizini svoje kuće u Trondheimu u Norveškoj u prosincu 2020. Arve Hjalmar Holmen optužen je i kasnije osuđen za ubojstvo svoja dva sina, kao i za pokušaj ubojstva trećeg sina. Slučaj je šokirao lokalnu zajednicu i naciju, a zbog svoje tragičnosti bio je i medijski popraćen. Holmen je osuđen na 21 godinu zatvora, što je najveća kazna u Norveškoj. Incident je istaknuo probleme mentalnog zdravlja i složenosti obiteljske dinamike."
PROČITAJTE VIŠE > Čudo iz Kine izbrisalo je stotine milijardi najvećim tvrtkama: Amerikanci su u šoku, a trenutak u kojem se sve dogodilo nije nimalo slučajan
Holmen je rekao da je ChatGPT skoro pogodio dob njegovih sinova. Zbog toga je zaključio da raspolaže s nekim točnim informacijama.
Grupa za zaštitu digitalnih prava Noyb predala je žalbu u Holmenovo ime te konstatirala da ga je ChatGPT oklevetao te prekršio europska pravila o točnosti osobnih podataka. Noyb je rekao da Holmen nikad nije počinio nikakav zločin te da je savjestan građanin.
ChatGPT svojim korisnicima prije upotrebe kaže da može pogriješiti te da provjere važne informacije. Noyb smatra da to upozorenje nije dovoljno.
BBC navodi da umjetno inteligentni sustavi mogu imati tzv. halucinacije, odnosno da mogu izmisliti informacije i potom ih prezentirati kao činjenice.
Stručnjaci za računarstvo već neko vrijeme pokušavaju riješiti ovaj problem.
Appleov sustav za sažimanje novinskih članaka Apple Intelligence ranije je ove godine u Velikoj Britaniji izmislio lažne naslove te ih prezentirao kao prave vijesti.
Googleova umjetna inteligencija Gemini prošle je godine rekao da se sir na pizzu može staviti s pomoću lijepila te da geolozi ljudima preporučuju da jednom dnevno pojedu kamen.
Nakon što je ChatGPT na Holmenov upit odgovorio s halucinacijom, OpenAI promijenio je njegov jezični model.
Za sudjelovanje u komentarima je potrebna prijava, odnosno registracija ako još nemaš korisnički profil....