O chatbot de inteligência artificial (IA) da OpenAI, ChatGPT, foi acusado de violar as regras de privacidade por um regulador italiano na sequência de uma investigação no ano passado que incluiu uma breve proibição do aplicativo.
Conforme relatado pela Reuters, a autoridade italiana de proteção de dados – conhecida como Garant – informou a OpenAI sobre suas descobertas, permitindo um período de 30 dias para responder.
A Garante é considerada uma das organizações mais completas da União Europeia (UE) na avaliação da conformidade da IA com os regulamentos de privacidade do bloco de 27 membros.
Anteriormente, a empresa de pesquisa de IA tomou medidas em relação a preocupações que incluíam o direito dos usuários de recusar o consentimento para que dados pessoais fossem utilizados para treinar algoritmos, mas essas medidas não parecem ter ido longe o suficiente.
Isso foi apenas parte da instigação do organismo italiano, que agora encontrou mais discrepâncias em termos de potenciais violações da privacidade de dados, mas os detalhes completos não foram divulgados no momento da redação deste artigo.
O compromisso da OpenAI de trabalhar de forma construtiva
Em resposta, a OpenAI acredita que está a operar dentro dos parâmetros definidos pelas regras da UE sobre privacidade.
“Trabalhamos ativamente para reduzir os dados pessoais no treinamento de nossos sistemas como o ChatGPT”, afirmou em comunicado, acrescentando que “planeja continuar a trabalhar de forma construtiva com o Garant”.
Garante agora espera outra resposta do peso pesado da IA com sede em São Francisco dentro de 30 dias, levando em consideração a investigação inicial do ano passado.
A breve proibição imposta ao ChatGPT significou que a Itália foi a primeira grande nação europeia a travar o progresso e a proliferação da tecnologia de IA da OpenAI, com o seu rápido desenvolvimento atraindo olhares cautelosos de políticos e outras autoridades nos últimos tempos.
Os comentários amigáveis atribuídos à OpenAI podem ser explicados pelas possíveis penalidades para quaisquer empresas que tenham violado os regulamentos da UE. De acordo com as diretrizes do Regulamento Geral de Proteção de Dados (RGPD), estabelecidas em 2018, as empresas podem ser atingidas com multas de até 4% do seu volume de negócios global.
Além disso, a OpenAI estará ciente de que não é do seu interesse ser desviado por um desacordo sério com um organismo tão poderoso como a UE, um dos seus principais mercados.
Em Dezembro passado, os legisladores do bloco europeu estabeleceram um acordo inicial para regular as tecnologias de IA, como ChatGPT e outras, num movimento em direcção à governação e à responsabilização.