A Autoridade Nacional de Proteção de Dados (ANPD) emitiu uma Medida Preventiva nesta terça-feira (2), proibindo a Meta de utilizar os dados pessoais de brasileiros para o treinamento dos sistemas de inteligência artificial (IA) da empresa.
De acordo com o órgão, se a medida for descumprida, resultará em multa diária de R$ 50 mil.
Isso acontece porque a Meta atualizou a sua política de privacidade no dia 26 de junho para suas redes sociais, incluindo Facebook, Messenger e Instagram, permitindo que elas coletassem informações públicas e conteúdos compartilhados por usuários para treinar e aperfeiçoar seus sistemas de IA generativa.
Com isso em vista, a ANPD verificou que a medida da big tech violava a Lei Geral de Proteção de Dados (LGPD) e determinou a suspensão da nova política de privacidade em território nacional.
“A ANPD tomou conhecimento do caso e instaurou processo de fiscalização de ofício – ou seja, sem provocação de terceiros – em função de indícios de violações à Lei Geral de Proteção de Dados (LGPD). Após análise preliminar, diante dos riscos de dano grave e de difícil reparação aos usuários, a Autoridade determinou cautelarmente a suspensão da política de privacidade e da operação de tratamento.”
- ANDP.
A ANPD também avaliou que a Meta não forneceu informações de maneira clara e acessível sobre a mudança em sua política de privacidade.
Apesar da nova política, a Meta forneceu uma forma para que os usuários impedissem a utilização de seus dados para o treinamento através de um formulário chamado “Direito de se opor”. No entanto, a autoridade considera que havia obstáculos para que os usuários pudessem solicitar que seus dados não fossem utilizados pela big tech.
Como observa a Folha de São Paulo, o formulário para pedir a interrupção do uso de informações pessoais contava com cinco páginas de configurações no Instagram, dificultando que os usuários pudessem cancelar o uso de suas informações e publicações compartilhadas nas redes sociais para fins de treinamento dos sistemas de IA.
Em nota, a Meta se pronunciou, afirmando que ela não é a única empresa que utiliza informações públicas para treinar seus sistemas e que é mais transparente do que muitas outras empresas.
“Estamos desapontados com a decisão da ANPD. Treinamento de IA não é algo exclusivo dos nossos serviços, e somos mais transparentes do que muitos participantes nessa indústria que têm usado conteúdos públicos para treinar seus modelos e produtos. Nossa abordagem cumpre com as leis de privacidade e regulações no Brasil, e continuaremos a trabalhar com a ANPD para endereçar suas dúvidas. Isso é um retrocesso para a inovação e a competitividade no desenvolvimento de IA, e atrasa a chegada de benefícios da IA para as pessoas no Brasil.”
- Meta.
A atualização da política de privacidade foi paralisada na União Europeia (UE) após o órgão regulador europeu solicitar mais informações sobre como a empresa trataria os dados dos usuários para o desenvolvimento de modelos de IA.
FIQUE POR DENTRO!
-
YouTube facilitará a remoção de conteúdos prejudiciais gerados por IA
-
Instagram testa IA que cria chatbots com a personalidade de influenciadores
-
Nova IA do Google pode permitir conversas com versões de IA de celebridades