OpenAI, organisationen bakom AI-chatboten ChatGPT, konfronteras med ett integritetsklagomål i Norge på grund av att chatboten genererar falsk och ärekränkande information om en individ. Den här incidenten belyser pågående farhågor angående noggrannheten och tillförlitligheten hos AI-genererat innehåll.
En norsk person upptäckte att ChatGPT producerade påhittad information som påstod att han hade dömts för att ha mördat två av sina barn och försökt döda ett tredje. Dessa ogrundade påståenden har orsakat betydande nöd och potentiell skada på ryktet för den inblandade individen.
Läs även:Google möter konkurrens när användare anammar Conversational AI för information
Integritetsadvokatgruppen NOYB (None of Your Business) stödjer den drabbade individen genom att lämna in ett klagomål till Norges dataskyddsmyndighet, Datatilsynet. NOYB hävdar att OpenAI:s ChatGPT bryter mot den allmänna dataskyddsförordningen (GDPR) genom att producera och sprida felaktiga personuppgifter. Joakim Söderberg, en dataskyddsadvokat på NOYB, sa: "GDPR är tydlig. Personuppgifter måste vara korrekta. Om de inte är det har användarna rätt att få dem ändrade för att återspegla sanningen."
Enligt GDPR är organisationer skyldiga att säkerställa riktigheten av personuppgifter som de behandlar. Förordningen ger enskilda personer rätt att rätta felaktiga uppgifter om dem. I det här fallet kan ChatGPT:s generering av falsk information om klaganden ses som ett brott mot dessa bestämmelser. Bekräftade överträdelser av GDPR kan resultera i straffavgifter på upp till 4 % av ett företags globala årliga omsättning.
Detta är inte första gången ChatGPT:s felaktigheter, ofta kallade "hallucinationer", har lett till juridiska utmaningar:
- År 2023 övervägde en australisk borgmästare rättsliga åtgärder efter att ChatGPT felaktigt hävdade att han hade fängslats för mutor.
- År 2024 bötfällde Italiens dataskyddsmyndighet OpenAI med 15 miljoner euro för att ha behandlat personuppgifter utan rättslig grund.
- I USA väcktes en ärekränkningsprocess mot OpenAI efter att ChatGPT fabricerat juridiska anklagelser mot en radiovärd.
Dessa incidenter understryker den bredare frågan om AI-genererad desinformation och dess potentiella juridiska konsekvenser.
OpenAI har erkänt att ChatGPT kan producera felaktig information och har implementerat ansvarsfriskrivningar som råder användare att verifiera chatbotens utdata. Kritiker hävdar dock att sådana friskrivningar är otillräckliga för att mildra skadan orsakad av falsk information. Om den norska dataskyddsmyndigheten finner att OpenAI bryter mot GDPR kan företaget få betydande böter och bli skyldig att vidta åtgärder för att förhindra framtida felaktigheter.
Klagomålet som lämnats in i Norge bidrar till den växande granskningen av AI-system som ChatGPT och deras efterlevnad av dataskyddslagar. När AI-tekniken fortsätter att utvecklas är det fortfarande en kritisk utmaning för utvecklare och tillsynsmyndigheter att säkerställa noggrannheten och tillförlitligheten hos AI-genererat innehåll.
Källa:TechCrunch
