Órgão do Ministério da Justiça prorrogou prazo para documentação, condicionando revisão à análise técnica. Multa de R$ 50 mil se ordem fosse descumprida.
A Autoridade Nacional de Proteção de Dados (ANPD) rejeitou um pedido da Meta e confirmou a determinação que exige que a empresa pare de utilizar informações de cidadãos brasileiros para desenvolver inteligência artificial (IA). Um comunicado foi divulgado hoje.
A decisão da ANPD em relação à Meta destaca a importância de respeitar as diretrizes de proteção de dados ao empregar tecnologias de inteligência artificial (IA) no Brasil. É fundamental garantir a privacidade dos usuários em todas as etapas do processo de desenvolvimento de sistemas baseados em IA.
Inteligência Artificial e a Proteção de Dados
No início de julho, o órgão vinculado ao Ministério da Justiça estabeleceu uma multa de R$ 50 mil para a empresa em caso de descumprimento da ordem. A Meta é a responsável por plataformas de redes sociais como Facebook, Instagram e WhatsApp. A diretora da ANPD, Miriam Wimmer, destacou que a agência identificou indícios de violação de direitos por parte da gigante da tecnologia na coleta de dados dos usuários dessas redes.
A decisão foi tomada após a Meta introduzir novos termos de uso que permitem a utilização de dados de publicações abertas dos usuários, como fotos e textos, para treinar sistemas de inteligência artificial generativa. ‘Esta foi a primeira vez que implementamos uma medida eficaz, de caráter preventivo, devido à existência de indícios de violação de direitos que podem resultar em danos difíceis de reparar’, afirmou a diretora da ANPD.
No despacho divulgado recentemente, a ANPD concedeu mais tempo para que a Meta envie documentação assinada por um representante legal da empresa confirmando a suspensão do uso dos dados. Além disso, o órgão determinou que a revisão completa da decisão só ocorrerá após uma avaliação técnica das medidas propostas pela Meta e da apresentação de um plano de conformidade pela empresa.
Após a publicação da decisão no início de julho, a Meta assegurou que sua abordagem em relação à inteligência artificial está em conformidade com a legislação brasileira. O caso ganhou destaque em 4 de junho, quando a Meta anunciou na União Europeia e no Reino Unido que sua política de privacidade permitiria o uso de dados dos usuários para treinar sua IA.
Diante da repercussão negativa, a empresa recuou e adiou a alteração da política na Europa, mas não adotou a mesma medida no Brasil. Quando o Instituto de Defesa do Consumidor contestou a nova política de privacidade desses serviços, a Meta argumentou que o uso das informações para treinar inteligência artificial é de legítimo interesse da empresa, de seus usuários e de terceiros.
‘A Meta está comprometida em desenvolver a inteligência artificial de forma segura, responsável e em conformidade com as regulamentações de privacidade no Brasil’, afirmou a empresa ao g1 em 23 de junho. Os treinamentos de modelos de inteligência artificial envolvem a utilização de grandes volumes de dados e são essenciais para que, em fases posteriores, esses sistemas sejam capazes de analisar informações e até mesmo gerar respostas.
Fonte: © G1 – Tecnologia
Comentários sobre este artigo