Forbes, a mais conceituada revista de negócios e economia do mundo.
Os esforços da Meta para apaziguar a Europa sobre o uso de dados pessoais para treinar modelos de IA não funcionaram, com o grupo de defesa da privacidade noyb lançando outro desafio. Após interromper o treinamento de IA na EE e no Espaço Econômico Europeu em junho passado, a Meta anunciou no mês passado planos de retomada, usando postagens públicas e comentários compartilhados por adultos e interações de usuários com a Meta AI.
A Meta suspendeu o treinamento após preocupações expressas pela Comissão Irlandesa de Proteção de Dados e reclamações apresentadas às autoridades de proteção de dados em toda a região. No final do ano, o Conselho Europeu de Proteção de Dados emitiu um parecer que, segundo a Meta, demonstrava que a empresa estava cumprindo a lei.
“No ano passado, adiamos o treinamento de nossos grandes modelos de linguagem usando conteúdo público enquanto os reguladores esclareciam os requisitos legais”, afirmou a empresa. “Acolhemos com satisfação o parecer emitido pelo CEPD em dezembro, que confirmou que nossa abordagem original atendia às nossas obrigações legais.” No entanto, nyob discorda.
“Pelo que ouvimos, a Meta ‘interagiu’ com as autoridades, mas isso não resultou em nenhum ‘sinal verde’”, disse o presidente da NYOB, Max Schrems. “Parece que a Meta está simplesmente seguindo em frente e ignorando as Autoridades de Proteção de Dados da UE.”
Nyob enviou à empresa uma carta de cessação e desistência, ameaçando uma ação coletiva europeia como próximo passo. A alegação da empresa de que o “interesse legítimo” permite que ela use dados do usuário sem consentimento explícito não se sustenta, afirmou.
“O Tribunal de Justiça Europeu já decidiu que a Meta não pode alegar ‘interesse legítimo’ em direcionar publicidade aos usuários. Como ela poderia ter ‘interesse legítimo’ em coletar todos os dados para treinamento de IA?”, questionou Schrems.
Embora a avaliação de “interesse legítimo” seja sempre um teste multifatorial, todos os fatores parecem apontar na direção errada para o Meta. O Meta simplesmente afirma que seu interesse em ganhar dinheiro é mais importante do que os direitos de seus usuários.
A Nyob também alega que a Meta pode não conseguir cumprir outros direitos do GDPR, como o direito de ser esquecido, o direito de ter dados incorretos retificados ou o direito dos usuários de acessar seus dados em um sistema de IA. Além disso, afirma que, como a Meta fornece o modelo de IA como software de código aberto para qualquer pessoa baixar e usar, ela não pode recuperar ou atualizar um modelo após sua publicação.
Noyb compara as práticas da Meta sobre coleta de dados para IA com a coleta de dados de usuários para veicular anúncios. Nesse contexto, após uma série de ações judiciais sob o GDPR, a empresa finalmente concordou em 2023 em abandonar o argumento de interesses legítimos e exigir opt-in específico.
“Essa disputa é essencialmente sobre se devemos pedir o consentimento das pessoas ou simplesmente obter seus dados sem ele. A Meta inicia uma grande luta apenas para ter um sistema de opt-out em vez de um sistema de opt-in. Em vez disso, eles se baseiam em um suposto ‘interesse legítimo’ para simplesmente obter os dados e continuar com eles”, disse Schrems.
Isso não é legal nem necessário. As alegações absurdas da Meta de que roubar dados pessoais de todos é necessário para o treinamento de IA são ridículas. Outros provedores de IA não usam dados de redes sociais — e geram modelos ainda melhores que a Meta.
A Meta foi contatada para comentar.
O post Meta É Acusada de Continuar Desrespeitando as Regras de Privacidade com Dados de Treinamento de IA apareceu primeiro em Forbes Brasil.