A autoridade de proteção de dados da Itália, Garante, alertou a OpenAI sobre seu aplicativo de inteligência artificial (IA), o ChatGPT, estar violando as regras de privacidade do país.
O ChatGPT é um chatbot de grande modelo de linguagem (LLM) desenvolvido pela OpenAI. Ele é treinado em um enorme conjunto de dados de texto e código, e pode gerar texto, traduzir idiomas, escrever diferentes tipos de conteúdo criativo e responder às suas perguntas de forma informativa.
A Garante afirma que o ChatGPT viola as regras de proteção de dados da Itália porque coleta dados pessoais dos usuários sem seu consentimento. O chatbot coleta dados como nome, endereço de e-mail, número de telefone e histórico de navegação. Esses dados são usados para treinar o modelo de linguagem, mas também podem ser usados para rastrear os usuários e personalizar a experiência deles.
A Garante também afirma que o ChatGPT não fornece aos usuários informações suficientes sobre como seus dados são coletados e usados. Os usuários não são informados sobre quais dados são coletados, como eles são usados e com quem são compartilhados.
A OpenAI já havia sido alertada pela Garante sobre as preocupações de privacidade do ChatGPT em 2023. A empresa respondeu às preocupações da autoridade, mas a Garante não ficou satisfeita com as respostas.
A OpenAI tem 30 dias para responder às preocupações da Garante. Se a empresa não responder de forma satisfatória, a Garante pode impor multas ou até mesmo proibir o uso do ChatGPT na Itália.
A decisão da Garante é um alerta para outras empresas que desenvolvem LLMs. As empresas precisam estar cientes das regras de proteção de dados e garantir que seus produtos cumpram essas regras.