Mundo

Fotos de crianças brasileiras usadas indevidamente para ferramentas de inteligência artificial

Fotografias estão a ser usadas sem conhecimento dos visados. Os nomes de algumas crianças estão listados nas respetivas legendas ou no URL. Em alguns casos, as identidades são facilmente rastreáveis.

Fotos de crianças brasileiras usadas indevidamente para ferramentas de inteligência artificial
Qi Yang

Fotografias de crianças e adolescentes brasileiros estão a ser usadas para criar poderosas ferramentas de inteligência artificial (IA) sem o conhecimento ou consentimento dos visados, denunciou esta segunda-feira, em comunicado, a Human Rights Watch (HRW).

A organização que trabalha em defesa dos direitos humanos afirmou que as fotos são retiradas da rede mundial de computadores e inseridas num grande conjunto de dados que as empresas usam para treinar as suas ferramentas de IA.

"Crianças e adolescentes não deveriam ter que viver com medo de que suas fotos possam ser roubadas e usadas contra eles (...) O Governo deveria adotar urgentemente políticas para proteger os dados das crianças contra o uso indevido impulsionado por IA", afirmou Hye Jung Han, investigadora de direitos da criança e tecnologia da HRW.

A HRW relatou ter descoberto que o LAION-5B, um conjunto de dados usado para treinar ferramentas populares de IA e construído a partir da raspagem de grande parte da Internet, contém links para fotos identificáveis de crianças brasileiras.

Os nomes de algumas crianças estão listados nas respetivas legendas ou na URL onde a imagem está armazenada. Em muitos casos, as suas identidades são facilmente rastreáveis, incluindo informações sobre quando e onde a criança estava no momento que a foto foi tirada.

"A HRW encontrou 170 fotos de crianças de pelo menos 10 estados: Alagoas, Bahia, Ceará, Mato Grosso do Sul, Minas Gerais, Paraná, Rio de Janeiro, Rio Grande do Sul, Santa Catarina e São Paulo. É provável que essa seja uma subestimação significativa da quantidade total de dados pessoais de crianças existentes no LAION-5B, uma vez que analisou menos de 0,0001% dos 5,85 mil milhões de imagens e legendas contidas no conjunto de dados", destacou.

A investigação detetou que muitas dessas fotos foram vistas originalmente por poucas pessoas e parece que tinham alguma medida de privacidade anteriormente. Não parece ser possível encontrá-las por meio de uma pesquisa 'on-line'. E, portanto, quando os dados são coletados e inseridos em sistemas de IA, essas crianças enfrentam mais ameaças à sua privacidade devido a falhas na tecnologia.

"Os modelos de IA, inclusive aqueles treinados no LAION-5B, são notórios por tornar pública informações privadas; eles podem reproduzir cópias idênticas do material no qual foram treinados, inclusive registos médicos e fotos de pessoas reais. As barreiras de proteção estabelecidas por algumas empresas para evitar a divulgação pública de dados confidenciais têm sido repetidamente quebradas", apontou a HRW.

A organização acrescentou ainda que "atores mal-intencionados usam ferramentas de IA treinadas pelo LAION para gerar imagens explícitas de crianças a partir de fotos inofensivas, bem como imagens explícitas de crianças sobreviventes cujas imagens de abuso sexual foram raspadas para o LAION-5B".

Em resposta à HRW, a LAION, organização alemã sem fins lucrativos que gere o LAION-5B, confirmou que o conjunto de dados continha as fotos pessoais das crianças encontradas e comprometeu-se a removê-las. A organização alemã contestou que os modelos de IA treinados no LAION-5B pudessem reproduzir dados pessoais literalmente.

A LAION também disse que as crianças e seus progenitores são responsáveis por remover as suas fotos pessoais da Internet, argumentando ser a proteção mais eficaz contra o uso indevido. A HRW salientou que os legisladores brasileiros precisam propor a proibição do uso não consensual de IA para gerar imagens sexualmente explícitas de pessoas, inclusive crianças.

"Esses esforços são urgentes e importantes, mas abordam apenas um sintoma de um problema mais profundo: o facto de que os dados pessoais de crianças permanecem em grande parte desprotegidos contra o uso indevido. Da forma como está redigida, a Lei Geral de Proteção de Dados Pessoais do Brasil não oferece proteção suficiente para as crianças", afirmou a HRW.

A organização defendeu que o Governo brasileiro precisa fortalecer a lei de proteção de dados, adotando salvaguardas adicionais e abrangentes para a privacidade dos dados das crianças e lembrou que, em abril, o Conselho Nacional dos Direitos da Criança e do Adolescente (CONANDA) do Brasil publicou uma resolução pedindo que o Conselho e o Ministério dos Direitos Humanos e Cidadania desenvolvam uma política nacional para proteger os direitos das crianças e dos adolescentes no ambiente digital no prazo de 90 dias.

A Human Rights Watch frisou que "a nova política deveria proibir a raspagem de dados pessoais de crianças para sistemas de IA considerando os riscos de privacidade envolvidos e o potencial de novas formas de uso indevido à medida que a tecnologia evolui".

"A IA generativa ainda é uma tecnologia incipiente, e os danos associados que as crianças já estão enfrentando não são inevitáveis (...)Proteger agora a privacidade dos dados de crianças ajudará a moldar o desenvolvimento dessa tecnologia para uma que promova, em vez de violar, os direitos das crianças", concluiu Hye Jung Han, da HRW.