Følgende artikel hjælper dig med: Spanien slår alarm om OpenAI’s ChatGPT-privatlivsbekymringer, opfordrer til EU-handling

Det spanske databeskyttelsesagentur (AEPD) har anmodet EU’s privatlivsvagthund om at vurdere privatlivsproblemerne i forbindelse med ChatGPT, den AI-drevne chatbot udviklet af OpenAI. Denne anmodning følger en voksende global undersøgelse af AI-systemer.
Ifølge Reuters, som interviewede en talsmand for AEPD, har Spaniens agentur erkendt behovet for koordinerede beslutninger på europæisk niveau for behandlingsoperationer, der kan påvirke individuelle rettigheder. Derfor har agenturet anmodet om, at spørgsmålet om ChatGPT bliver inkluderet i det næste plenarmøde i den europæiske databeskyttelseskomité for at muliggøre harmoniserede handlinger inden for rammerne af den generelle databeskyttelsesforordning.
Tirsdag også Frankrigs privatlivsvagthund annonceret at den undersøgte klager over ChatGPT. I mellemtiden har Italiens datatilsynsmyndighed gennemgået de foranstaltninger, som OpenAI har foreslået som svar på bekymringer, der førte til et midlertidigt forbud mod chatbot den 31. marts. Den italienske tilsynsmyndigheds bestyrelse holdt et møde tirsdag for at diskutere sagen.
Midt i bekymringer vedrørende dets indvirkning på national sikkerhed og uddannelse har Biden-administrationen offentliggjort sin anmodning om feedback fra offentligheden om ansvarlighedsforanstaltninger for AI-systemer. Center for AI og Digital Policy (CAIDP) har indgivet en klage til US Federal Trade Commission (FTC) med påstand om, at OpenAIs seneste produkt, GPT-4, overtræder føderal forbrugerbeskyttelseslovgivning og udgør betydelige farer for offentligheden.
Kina har allerede udarbejdet et sæt regler for regulering af generative AI-tjenester. Kinesiske tilsynsmyndigheder udtalte, at disse tjenester skal tilpasses kinesiske socialistiske værdier og undgå at producere indhold, der fremmer regimets undergravning, vold, pornografi eller forstyrrer social og økonomisk orden. Udbydere skal sikre datalegitimitet og forhindre diskrimination under algoritmedesign og træning. Derudover skal generative AI-tjenesteudbydere gennemgå sikkerhedsvurderinger, før de lancerer deres produkter.
Læs mere: