A rede social X bloqueou as pesquisas pelo nome da cantora depois de imagens falsas de conteúdo explícito, geradas através de inteligência artificial, terem sido divulgados na rede social e obtido milhões de visualizações.
Em declarações à BBC, Joe Benarroch, diretor comercial do X, fala numa "ação temporária" com o intuito de priorizar a segurança.
Na semana passada, o conteúdo explícito foi divulgado e tornou-se viral, obtendo milhões de visualizações e alarmando a polícia dos EUA e fãs da artista. Agora, ao pesquisar pela cantora na rede social, aparece uma mensagem que diz "Algo deu errado. Tente novamente".
As publicações e páginas que partilharam essas imagens foram reportadas pelos fãs, que inundaram o X com fotografias e vídeos verdadeiros da cantora, sob a mensagem "protejam a Taylor Swift".
Estas publicações levaram o X (antigo Twitter) a emitir um comunicado na passada sexta-feira, onde referiu que a publicação de conteúdo com nudez de forma não-consensual é "estritamente proibido".
"Temos uma política de tolerância zero em relação a este tipo de conteúdos. As nossas equipas estão a remover rapidamente todas as imagens identificadas e a tomar medidas para responsabilizar os culpados", lê-se.
Benarroch afirma que a ação é realizada "com bastante cautela, pois priorizamos a segurança nestas questões".
Este assunto despertou também atenções na Casa Branca, que, na sexta-feira, classificou como "alarmante" a disseminação de imagens geradas por inteligência artificial.
"Sabemos que é uma situação que afeta desproporcionalmente mulheres, mas também menores, que infelizmente representam a esmagadora maioria dos alvos", disse a secretária de imprensa da Casa Branca, Karine Jean-Pierre.
Acrescentou que devia existir uma legislação para combater o uso indevido de tecnologia de inteligência artificial nas redes sociais e que as próprias plataformas também deveriam começar a tomar as suas medidas para banir este tipo de conteúdo nos seus sites.
"Acreditamos que têm um papel importante a desempenhar na criação de regras próprias para a prevenção de divulgação de informação falsa e não-consensual", acrescentou.
Os políticos americanos também já pediram leis que criminalizem a criação de imagens falsas, os chamados "deepfakes". Os deepfakes usam a inteligência artificial para a criação de vídeos de alguém, manipulando a sua cara e/ou corpo.
Um estudo de 2023 indicou que se verificou um aumento de 550% de conteúdo adulterado, acelerado pelo desenvolvimento da IA. Ainda não existem leis contra a criação deste tipo de conteúdo, ainda que já tenham começado a criar medidas a nível estatal nos EUA para combater este problema.
No Reino Unido, a partilha deste conteúdo pornográfico tornou-se oficialmente ilegal através da Lei de Segurança Online criada em 2023.
Em Portugal, ainda que exista a Carta Portuguesa de Direitos Fundamentais na Era Digital e que tenha sido atualizada em 2022, esta não indica qualquer legislação para casos como este.