OpenAI musi się tłumaczyć z “halucynacji” SI. Wpłynęła oficjalna skarga

Jakiś czas temu pisałem o zjawisku “halucynacji”, które dotyka sztuczne inteligencje. Sprawa okazała się większa niż można było przypuszczać. Noyb, europejska organizacja non-profit zajmująca się ochroną prywatności, złożyła w imieniu osoby fizycznej skargę dotyczącą łamania RODO przez model OpenAI. O co konkretnie chodzi?
OpenAI
OpenAI

Gdy tylko pojawiło się SI, od razu pojawiły się także obawy dotyczące prywatności. Ale wówczas nikt nie kojarzył tego zagrożenia ze zjawiskiem halucynacji. Nic dziwnego – pojawiło się ono znacznie później. I to właśnie przez nie nastąpiły niespodziewane efekty, z których musi tłumaczyć się twórca ChatGPT.

OpenAI na celowniku

Noyb to europejska organizacja non-profit zajmująca się ochroną prywatności. Złożyła w imieniu swojego klienta – lub klientki, gdyż osoba ta nie została podana z imienia i nazwiska – skargę przeciwko OpenAI. Chodzi to o brak zdolności chatbota do korygowania generowanych przez niego błędnych informacji na temat osób fizycznych. A to narusza podstawową zasadę RODO. OpenAI odpowiedziało na zażalenie, informując, że “chatbot nie ma technicznej możliwości poprawienia tych danych ze względu na ograniczenia w działaniu jego systemów”.

To z kolei kłóci się z założeniami RODO, które przewidują, że każda osoba fizyczna może zażądać poprawienia danych osobowych przechowywanych przez organizację. Ponadto, jak zauważa Noyb, OpenAI nie daje użytkownikom możliwości dostępu do swoich danych osobowych oraz ich korekty. Dlatego uważa działanie takie za niezgodne z prawem. Ale i na tym nie koniec zarzutów.

OpenAI

Czytaj też: OpenAI nawiązuje współpracę z Pentagonem. Sztuczna inteligencja rusza na wojnę?

Noyb zarzuca również OpenAI, że nie podaje ono, skąd ChatGPT czerpie informacje na temat osób fizycznych, co obejmuje nie tylko imiona i nazwiska, ale też dane osobowe, jak informacje o roku urodzenia. Ponadto jeśli ChatGPT podawał je błędne, to jak wyżej – osoba zainteresowana nie ma żadnej możliwości, aby poprawić błąd. To także łamanie założeń RODO.

Co dalej? Ano trzeba czekać, aż odpowiednie organy sprawdzą sprawę i zaopiniują, czyt Nyob ma rację. Jeśli tak, na OpenAI może zostać nałożona kara wynosząca do 4% globalnych przychodów. Może także zostać wymuszone zastosowanie zmiany sposobu przetwarzania danych UE. Skarga Nyob będzie rozpatrywana w Austrii.