OpenAI, virksomheden der skabte den populære ChatGPT, står over for udfordringer i forhold til overholdelse af lovgivningen og krav om datanøjagtighed. Problemet har fået NOYB – European Center for Digital Rights, en non-profit organisation med base i Wien, Østrig, til at indgive en klage over OpenAI, til den østrigske databeskyttelsesmyndighed (DPA).
OpenAI’s dataindsamling har faktisk skabt bekymring blandt tilsynsmyndigheder og fortalere for privatlivets fred. Klagen fra NOYB kan potentielt udløse en større diskussion om den etiske brug af data, i teknologien.
OpenAI’s dataproblemer afslører etiske udfordringer ved AI
Kernen i klagen ligger i OpenAI’s nylige indrømmelser af ChatGPT’s begrænsninger i datahåndteringen. Ifølge OpenAI er AI-modellen ikke i stand til at verificere nøjagtigheden af de oplysninger, den genererer om enkeltpersoner. Derudover kan den heller ikke afsløre oprindelsen af sine datainput.
Midt i den stigende AI-hype, der blev udløst af lanceringen af ChatGPT i november 2022, har den brede anvendelse af værktøjet afsløret kritiske sårbarheder. ChatGPT fungerer ved at forudsige sandsynlige svar på brugeranmodninger uden en iboende mekanisme, til at sikre faktuel nøjagtighed.
Det har ført til tilfælde, hvor AI’en “hallucinerer” data og fabrikerer svar, der kan være vildledende eller helt falske. Mens sådanne unøjagtigheder kan være ubetydelige i nogle sammenhænge, udgør de en betydelig risiko, når det drejer sig om persondata.
Læs mere her: Sådan bygger du din personlige AI-chatbot ved hjælp af ChatGPT-API’en
EU’s generelle bestemmelse om databeskyttelse (GDPR), kræver, at persondata er korrekte, og giver enkeltpersoner ret til at få adgang til og rette forkerte oplysninger om dem selv. OpenAI’s nuværende evner lever ikke op til disse lovkrav, hvilket har udløst en debat om de etiske konsekvenser af AI, i forbindelse med håndtering af følsomme data.
Maartje de Graaf, databeskyttelsesadvokat hos noyb, understreger situationens alvor.
“Det er tydeligt, at virksomheder i øjeblikket ikke er i stand til at få chatbots som ChatGPT, til at overholde EU-lovgivningen, når de behandler data om enkeltpersoner. Hvis et system ikke kan producere nøjagtige og gennemsigtige resultater, kan det ikke bruges til at generere data om enkeltpersoner. Teknologien skal følge de juridiske krav, ikke omvendt,” forklarer de Graaf.
Problemerne strækker sig ud over tekniske forhindringer, til bredere lovgivningsmæssige udfordringer. Siden starten har generative AI-værktøjer, herunder ChatGPT, været under intens kontrol fra europæiske vagthunde, for privatlivets fred.
Den italienske databeskyttelsesmyndighed indførte f.eks. restriktioner på ChatGPT’s databehandling i begyndelsen af 2023, med henvisning til unøjagtigheder.
Dette blev efterfulgt af en koordineret indsats fra Det Europæiske Databeskyttelsesråd, for at vurdere og mindske de risici, der er forbundet med sådanne AI-platforme.
Timingen af de juridiske udfordringer er særlig bemærkelsesværdig. Samtidig var OpenAI i forhandlinger om at danne en strategisk alliance med Worldcoin, et projekt grundlagt af Sam Altman, som også er direktør for OpenAI.
Læs mere om dette: De 11 bedste ChatGPT Chrome-udvidelser, du skal tjekke ud i 2024
OpenAI’s potentielle samarbejde med Worldcoin, kan dog introducere yderligere lag af juridiske og etiske dilemmaer. Worldcoins tilgang til brugen af biometriske data, krydser OpenAI’s udfordringer med at sikre datasikkerhed og -nøjagtighed.
Desuden har Worldcoin været udsat for kontrol fra juridiske myndigheder over hele verden i forbindelse med sin dataindsamling, herunder Kenya, Spanien og Argentina. Derfor kan denne synergi enten bane vejen for innovativ teknologianvendelse, eller danne præcedens for øget lovgivningsmæssig indgriben.
Disclaimer
Alle oplysninger på vores hjemmeside offentliggøres i god tro og kun til generelle informationsformål. Enhver handling, der foretages af læserne på grundlag af oplysningerne på vores hjemmeside, er udelukkende på egen risiko.