Idec alertou autoridades sobre cinco possíveis violações da LGPD. Empresa pode ser multada em R$ 50 mi por infringir a lei de proteção de dados de usuários.
A Meta está sendo criticada por utilizar informações de usuários do Instagram e do Facebook para aprimorar sua inteligência artificial (IA), o que, de acordo com o Instituto Brasileiro de Defesa do Consumidor (Idec), infringe as leis do país.
Segundo o Idec, a prática da Meta de utilizar dados dos usuários do Facebook e do Instagram para o desenvolvimento de sua IA levanta questões éticas e legais que precisam ser abordadas com urgência.
Meta: Utilizando Dados Públicos para Treinar Inteligência Artificial
Parte do material utilizado pela Meta para aprimorar seus modelos de IA consiste em dados disponíveis publicamente em suas plataformas, como o Facebook e o Instagram, onde os usuários compartilham fotos e textos. É importante destacar que mensagens privadas não entram nessa seleção. Por que isso é relevante? Porque o conteúdo postado por você e por milhões de outros usuários nessas redes sociais está sendo empregado no treinamento de inteligência artificial, sem que a empresa forneça informações detalhadas sobre o uso desses dados.
A coleta dessas informações foi anunciada pela Meta recentemente e está ativada por padrão. Aqueles que desejam proteger suas fotos e vídeos devem seguir um procedimento específico nas configurações do Facebook ou do Instagram. O Idec argumenta que a Meta falhou ao não comunicar previamente os usuários, ao não ser totalmente transparente sobre a prática e ao não oferecer uma forma simples e intuitiva de se opor à coleta de dados. Por conta disso, a entidade enviou um ofício à Senacon, ANPD e ao Cade, alertando sobre a situação.
O Idec sugere que, caso a violação seja confirmada, a Meta poderá receber uma multa de até R$ 50 milhões por infração, conforme previsto na LGPD. Por outro lado, a Meta defende que o uso dessas informações para treinar sua inteligência artificial é de interesse legítimo, tanto da empresa quanto dos usuários e demais envolvidos.
Em declaração ao g1 em 23 de junho, a companhia afirmou: ‘Estamos empenhados em desenvolver a inteligência artificial na Meta – nossa coleção de recursos e experiências geradoras de inteligência artificial, juntamente com os modelos que as alimentam – de maneira segura, responsável e em conformidade com as regulamentações de privacidade no Brasil.’
A empresa foi contatada novamente para comentar sobre o assunto, porém não se pronunciou até o momento da publicação desta matéria. Acompanhe os detalhes abaixo. Como toda essa situação teve início? O caso chamou atenção em 4 de junho, quando a Meta informou à União Europeia e ao Reino Unido que sua política de privacidade poderia incluir a utilização de dados dos usuários para treinar sua inteligência artificial.
O treinamento de modelos de IA requer o uso de grandes volumes de dados, sendo essencial para que, em fases posteriores, esses modelos consigam analisar informações e até mesmo gerar conteúdo de forma autônoma. Após a repercussão negativa, a empresa voltou atrás e decidiu adiar a mudança na Europa para cumprir a determinação de seu órgão regulador na região, a DPC. No entanto, a possibilidade ainda está prevista na política da empresa para o Brasil.
‘Utilizamos informações disponíveis online e licenciadas, além de dados compartilhados em nossos produtos e serviços’, destaca o documento da Meta. É importante ressaltar que os brasileiros estão sendo remunerados com R$ 500 por mês para auxiliar no treinamento de inteligências artificiais. O que poderia estar sendo feito de maneira incorreta?
Fonte: © G1 – Tecnologia
Comentários sobre este artigo