O grupo europeu de defesa da proteção de dados noyb apresentou uma queixa contra a OpenAI sobre a incapacidade da empresa de corrigir informações imprecisas geradas pelo ChatGPT.
O grupo alega que a falha da OpenAI em garantir a precisão dos dados pessoais processados pelo serviço viola o Regulamento Geral de Proteção de Dados (GDPR) na União Europeia.
“Inventar informações falsas é bastante problemático por si só. Mas quando se trata de informações falsas sobre indivíduos, pode haver consequências graves”, disse Maartje de Graaf, Advogado de Proteção de Dados da noyb.
“Está claro que as empresas atualmente não conseguem fazer com que chatbots como o ChatGPT cumpram a legislação da UE ao processar dados sobre indivíduos. Se um sistema não consegue produzir resultados precisos e transparentes, não pode ser usado para gerar dados sobre indivíduos. A tecnologia tem que seguir os requisitos legais, e não o contrário.”
O GDPR exige que os dados pessoais sejam precisos e os indivíduos têm o direito à retificação se os dados forem imprecisos, bem como o direito de acessar informações sobre os dados processados e suas fontes.
No entanto, a OpenAI admitiu abertamente que não pode corrigir informações incorretas geradas pelo ChatGPT ou divulgar as fontes dos dados utilizados para treinar o modelo.
“A precisão factual em grandes modelos de linguagem continua sendo uma área de pesquisa ativa”, argumentou a OpenAI.
O grupo de defesa destaca um relatório do New York Times que descobriu que chatbots como o ChatGPT “inventam informações pelo menos 3% das vezes – e chegam a 27%”.
Na denúncia contra a OpenAI, noyb cita um exemplo em que ChatGPT forneceu repetidamente uma data de nascimento incorreta para o reclamante, uma figura pública, apesar dos pedidos de retificação.
“Apesar de a data de nascimento do reclamante fornecida pelo ChatGPT estar incorreta, a OpenAI recusou o seu pedido de retificação ou apagamento dos dados, argumentando que não era possível corrigir os dados”, afirmou noyb.
A OpenAI alegou que poderia filtrar ou bloquear dados em determinados prompts, como o nome do reclamante, mas não sem impedir que o ChatGPT filtrasse todas as informações sobre o indivíduo. A empresa também não respondeu adequadamente ao pedido de acesso do reclamante, que o GDPR exige que as empresas cumpram.
“A obrigação de cumprimento dos pedidos de acesso aplica-se a todas as empresas. É claramente possível manter registros dos dados de treinamento que foram utilizados para pelo menos ter uma ideia sobre as fontes de informação”, disse de Graaf. “Parece que a cada ‘inovação’, outro grupo de empresas pensa que seus produtos não precisam estar em conformidade com a lei.”
Os auditores europeus de privacidade já examinaram as imprecisões do ChatGPT, com a Autoridade Italiana de Proteção de Dados impondo uma restrição temporária ao processamento de dados da OpenAI em março de 2023 e o Conselho Europeu de Proteção de Dados estabelecendo uma força-tarefa sobre ChatGPT.
Na sua reclamação, a noyb pede à Autoridade Austríaca de Proteção de Dados que investigue o processamento de dados da OpenAI e as medidas para garantir a precisão dos dados pessoais processados pelos seus grandes modelos de linguagem.
O grupo de defesa também solicita que a autoridade ordene à OpenAI que cumpra o pedido de acesso do reclamante, alinhe o seu processamento com o GDPR e imponha uma multa para garantir o cumprimento futuro.
Deixe um comentário
Relacionado