FOTO: UNSPLASH.COM

Ovaj slučaj je izazvan tendencijom ChatGPT-a da generira izmišljene informacije o ljudima, što je dovelo do nove tužbe austrijske organizacije za zaštitu privatnosti Noyb. Ta organizacija je tužila ChatGPT zbog stvaranja netočnih informacija o osobama, uključujući lažnu priču prema kojoj je jedan korisnik bio ubojica djece.

ChatGPT, kao i drugi chat botovi, ima sklonost stvaranju netočnih podataka jer koristi nesigurne izvore ili pogrešno interpretira informacije. U konkretnom slučaju, korisnik Arve Hjalmar Holmen pitao je ChatGPT u kolovozu 2024. godine ima li kakvih podataka o njemu, a chatbot je iznio lažnu tvrdnju da je ubio dvoje svoje djece i pokušao ubiti trećeg sina. Odgovor je također uključivao i neke točne informacije, poput broja djece i imena rodnog grada.

“Najviše me plaši to što je netko mogao pročitati ovu priču i vjerovati da je istinita”, izjavio je Holmen, kako prenosi Noyb. OpenAI je nakon toga izmijenio ChatGPT kako bi tražio informacije na internetu o pojedincima, čime bi, teorijski, trebalo smanjiti mogućnost stvaranja pogrešnih zaključaka. Međutim, Noyb napominje da netočne informacije i dalje mogu biti prisutne u podacima na kojima se temelji model.

FOTO: UNSPLASH.COM

Noyb je podnio žalbu norveškom tijelu za zaštitu podataka (Datatilsynet), tražeći da se kazni OpenAI i naloži im brisanje klevetničkih tvrdnji te prilagodba modela kako bi se eliminirale netočne informacije. Noyb tvrdi da OpenAI krši pravila Opće uredbe o zaštiti podataka (GDPR) dopuštajući da ChatGPT stvara štetne informacije.

Iako ChatGPT korisnicima prikazuje odricanje od odgovornosti u kojem se navodi da može pružiti lažne rezultate, Noyb smatra da to nije dovoljno. “Nije dovoljno širiti lažne informacije i zatim samo dodati odricanje odgovornosti”, izjavio je Joakim Söderberg, pravni savjetnik za zaštitu podataka. “GDPR jasno kaže da osobni podaci moraju biti točni i da korisnici imaju pravo ispraviti ih ako nisu”, dodao je.

Europska tijela za zaštitu podataka formirala su radnu grupu za ChatGPT 2023. godine kako bi uskladila mjere zaštite privatnosti na toj platformi, a ova je grupa kasnije proširena na širu radnu grupu za umjetnu inteligenciju.