Autoridade italiana diz que ChatGPT viola regras de proteção de dados

A autoridade de proteção de dados da Itália, Garante, alertou a OpenAI sobre seu aplicativo de inteligência artificial (IA), o ChatGPT, estar violando as regras de privacidade do país.



O ChatGPT é um chatbot de grande modelo de linguagem (LLM) desenvolvido pela OpenAI. Ele é treinado em um enorme conjunto de dados de texto e código, e pode gerar texto, traduzir idiomas, escrever diferentes tipos de conteúdo criativo e responder às suas perguntas de forma informativa.

A Garante afirma que o ChatGPT viola as regras de proteção de dados da Itália porque coleta dados pessoais dos usuários sem seu consentimento. O chatbot coleta dados como nome, endereço de e-mail, número de telefone e histórico de navegação. Esses dados são usados para treinar o modelo de linguagem, mas também podem ser usados para rastrear os usuários e personalizar a experiência deles.

A Garante também afirma que o ChatGPT não fornece aos usuários informações suficientes sobre como seus dados são coletados e usados. Os usuários não são informados sobre quais dados são coletados, como eles são usados e com quem são compartilhados.

A OpenAI já havia sido alertada pela Garante sobre as preocupações de privacidade do ChatGPT em 2023. A empresa respondeu às preocupações da autoridade, mas a Garante não ficou satisfeita com as respostas.

A OpenAI tem 30 dias para responder às preocupações da Garante. Se a empresa não responder de forma satisfatória, a Garante pode impor multas ou até mesmo proibir o uso do ChatGPT na Itália.

A decisão da Garante é um alerta para outras empresas que desenvolvem LLMs. As empresas precisam estar cientes das regras de proteção de dados e garantir que seus produtos cumpram essas regras.

Postar um comentário

Postagem Anterior Próxima Postagem