A Autoridade Nacional de Proteção de Dados (ANPD) do Brasil emitiu nesta segunda-feira (02/07) uma determinação para que a Meta – empresa responsável pelo Instagram, WhatsApp, Messenger e Facebook – suspenda sua nova política de privacidade que autorizava o uso de dados pessoais de usuários brasileiros publicados em suas plataformas para treinar sistemas de inteligência artificial (IA).
A nova política da Meta foi criticada pelo Instituto de Defesa de Consumidores (Idec), que alertou a ANPD, a Secretaria Nacional do Consumidor (Senacon) e o Conselho Administrativo de Defesa Econômica (Cade).
O Idec considerou que a nova política de privacidade tem potencial para atingir um grande número de pessoas. No Brasil, por exemplo, apenas o Facebook possui cerca de 102 milhões de usuários ativos. A ANPD estabeleceu multa de R$ 50 mil por dia de descumprimento à determinação.
Após a empresa ser formalmente intimada, ela terá cinco dias para apresentar documentação que ateste a mudança da Política de Privacidade, para excluir o trecho referente ao uso dos dados pessoais para treinar IAs generativas e uma declaração assinada por representante legal que comprove o fim do uso dos dados.
O que diz a decisão da ANPD
Com a última atualização dos termos de uso das plataformas da Meta, realizada em 26 de junho, a empresa se deu o direito de utilizar dados de seus usuários, como fotos e textos, para treinar sistemas IA generativa. A Meta, porém, não forneceu informações suficientes sobre como a nova ferramenta será utilizada e tampouco ofereceu algum tipo de compensação aos usuários.
Após tomar conhecimento da medida, a ANPD instaurou um processo para averiguar indícios de violações à Lei Geral de Proteção de Dados (LGPD). Após análise preliminar, o órgão fiscalizador determinou de maneira cautelar a suspensão da política de privacidade da Meta.
Entre as constatações preliminares estavam o uso de hipótese legal inadequada para o tratamento de dados pessoais; falta de divulgação de informações claras, precisas e facilmente acessíveis sobre a alteração da política de privacidade, além de limitações excessivas ao exercício dos direitos dos titulares e a falta de salvaguardas aos dados pessoais de crianças e adolescentes.
A ANPD concluiu que a Meta não forneceu as informações adequadas e necessárias para que os usuários tivessem conhecimento das possíveis consequências do tratamento de seus dados pessoais para o desenvolvimento de modelos de IA generativa. Segundo a autarquia, a empresa colocou obstáculos excessivos e não justificados para que os usuários pudessem rejeitar a utilização de seus dados.
Para a ANPD, as plataformas da Meta têm como proposito inicial o compartilhamento de informações e dados dos usuários com amigos, familiares, comunidades ou empresas, motivo pelo qual não há por parte dos clientes a expectativa de que essas informações fossem utilizadas para treinar sistemas de IA, que sequer estavam implementados quando as informações foram compartilhadas.
Dados pessoais de crianças e adolescentes também poderiam ser coletados e utilizados, o que contraria as diretrizes da LGPD, segundo as quais, o tratamento de dados de crianças e de adolescentes deve ser sempre realizado em seu melhor interesse, com a adoção de salvaguardas e medidas de mitigação de risco, o que não foi verificado na análise preliminar da ANPD.
Meta acusa "retrocesso"
Em nota, a Meta assegurou que age de acordo com as leis brasileiras e disse que a defesa da ANPD seria um "retrocesso". Segundo afirmou, o treinamento de IA "não é algo único dos nossos serviços, e somos mais transparentes do que muitos participantes nessa indústria que têm usado conteúdos públicos para treinar seus modelos e produtos".
"Nossa abordagem cumpre com as leis de privacidade e regulações no Brasil, e continuaremos a trabalhar com a ANPD para endereçar suas dúvidas. Isso é um retrocesso para a inovação e a competividade no desenvolvimento de IA, e atrasa a chegada de benefícios da IA para as pessoas no Brasil", disse a empresa.
rc (ots)