Meus Apps


Meta atende ANPD e entrega documentos sobre uso de dados de usuários para treinar IA

Postado em: 23/08/2024 | Por: Emerson Alves

A Meta, em resposta à exigência da Autoridade Nacional de Proteção de Dados (ANPD), entregou documentos detalhando o uso de dados de usuários brasileiros para treinar suas inteligências artificiais.

Na mesma data em que a ANPD solicitou que a Meta apresentasse informações sobre como utiliza os dados dos usuários em suas plataformas, a empresa de Mark Zuckerberg atendeu à exigência. A companhia entregou, na terça-feira (20), dois relatórios internos que abordam a questão. Os documentos incluem o Relatório de Impacto à Proteção de Dados Pessoais (RIPD) e dois testes de balanceamento de legítimo interesse (LIA).

Leia também: Advogados e magistrados discutem dilemas da Inteligência Artificial em simpósio na OAB/MS.

Conteúdo dos relatórios entregues

Os documentos entregues pela Meta descrevem como as informações dos usuários são processadas pela empresa, incluindo medidas para minimizar os riscos aos direitos dos usuários. A ANPD havia dado um prazo de dez dias úteis para a entrega dos relatórios e solicitou que a Meta divulgasse versões públicas dos mesmos, suprimindo apenas os trechos sigilosos por razões comerciais.

A ANPD confirmou ao UOL a entrega dos documentos e as demais informações. Entretanto, até o momento, a Meta e a ANPD não responderam ao pedido de posicionamento feito pelo Olhar Digital. O espaço permanece aberto para futuras respostas.

Contexto do caso

O interesse da ANPD no uso de dados dos usuários pela Meta surgiu após uma mudança na política da big tech, que permitiu que informações de brasileiros fossem utilizadas para treinar inteligências artificiais. Em julho, a ANPD proibiu a Meta de continuar com essa prática, alegando que a empresa não forneceu informações claras e adequadas para que os usuários compreendessem como seus dados seriam utilizados.

A situação ganhou notoriedade após a Meta tentar implementar a mesma prática na União Europeia (UE), onde foi obrigada a recuar após críticas de usuários e autoridades locais. A mudança na política foi comunicada aos usuários no Brasil por meio de um formulário publicado em 22 de maio, no qual eles poderiam indicar se desejavam ou não que seus dados fossem usados para treinar IA.

Essa reação das autoridades brasileiras e europeias ressalta a crescente preocupação com a transparência no uso de dados pessoais, especialmente no contexto do treinamento de sistemas de IA.