Cérebro Digital

FGV Recomenda Remover Sites de Nudify das Search Engines para Combater Imagens Falsas de Nudez Geradas por IA

Tópicos do artigo

FGV Recomenda Remover Sites de Nudify das Search Engines para Combater Imagens Falsas de Nudez Geradas por IA

Nos últimos anos, o avanço da inteligência artificial tem trazido benefícios e inovações em diversas áreas, porém também tem gerado preocupações sérias relacionadas ao uso indevido dessas tecnologias. Entre as questões mais delicadas está a criação de imagens falsas de nudez, conhecidas como deepfakes sexuais ou imagens “nudify”. Um estudo recente da Fundação Getulio Vargas (FGV) Direito Rio reforça a necessidade de ações concretas por parte dos buscadores, especialmente o Google, para limitar o acesso a essas ferramentas potencialmente prejudiciais. Neste artigo, abordaremos as recomendações do estudo, o impacto dessas imagens na sociedade, especialmente no ambiente escolar, e as medidas propostas para o combate a esse problema.

Contexto e auge da busca por ferramentas de IA geradoras de imagens de nudez

O interesse por plataformas que utilizam inteligência artificial para gerar conteúdos sensíveis, como imagens de nudez, tem crescido de forma alarmante. Segundo dados do Google Trends, a quantidade de buscas por termos relacionados a essas ferramentas atingiu seu auge na semana de 28 de dezembro de 2025, marcando um índice 100. Essa alta procura foi impulsionada principalmente pela popularização da ferramenta Grok, da rede social X de Elon Musk, que possibilita a edição de imagens com facilidade e rapidez.

O aumento na procura por plataformas como “nudify” e variantes similares demonstra uma crescente demanda por conteúdos sensíveis gerados por IA, muitas vezes sem o consentimento das pessoas retratadas. Essa demanda leva a preocupações éticas, morais e jurídicas, pois muitas dessas imagens são usadas para ataques de alguma forma, como perseguição, chantagem, difamação e até abuso infantil.

Recomendações da FGV para a remoção e combate às plataformas de IA geradoras de nudez

O estudo apresentado pela Fundação Getulio Vargas propõe uma série de medidas estruturais para mitigar os riscos associados a essas ferramentas. A principal recomendação é a desindexação completa de URLs de sites que hospedam ferramentas de geração de imagens de nudez, incluindo domínios espelhos, variantes linguísticas e cópias de páginas. Dessa forma, o Google e outros buscadores reduziriam significativamente a visibilidade dessas plataformas nos resultados de pesquisa, dificultando o acesso de usuários a conteúdos potencialmente nocivos.

Além disso, os pesquisadores sugerem a implementação de filtros algorítmicos avançados, que utilizem análise semântica, metadados e inteligência artificial para identificar e impedir a indexação de sites similares futuramente. Essa abordagem visa criar uma barreira robusta contra novas plataformas que possam surgir com o mesmo propósito prejudicial.

Outra medida importante mencionada no estudo é a remoção de sugestões automáticas de busca relacionados a termos como “nudify”, “undress AI” e “deepnude”. Os autores sugerem ainda a exibição de avisos de segurança nos resultados dessas buscas, alertando os usuários sobre a ilegalidade e os riscos de uso dessas ferramentas, especialmente no que se refere à violação da privacidade e à potencial prática de crimes.

Atualização das políticas do Google e classificação de conteúdo nocivo

Os autores do estudo enfatizam a necessidade de atualização das políticas do Google para que essas páginas, que geram ou facilitam a criação de imagens de nudez não consentida, sejam classificadas como conteúdos nocivos. Essa categoria já inclui sites de pornografia não consensual, e o pedido é que as plataformas também reconheçam esses sites similares como fontes de danos psíquicos, morais e legais.

Ao classificar essas plataformas como nocivas, o Google seria incentivado a adotar medidas mais severas de remoção, além de orientar seus usuários sobre os perigos dessas ferramentas. Essa mudança também visa reforçar a responsabilidade da plataforma na mitigação de danos causados por conteúdos gerados por IA.

Canal de denúncia e transparência nas ações

Outro aspecto destacado no estudo é a necessidade de criar um canal de denúncia ágil para vítimas e organizações da sociedade civil, facilitando o encaminhamento de relatórios sobre a disseminação e uso indevido de ferramentas de nudeificação por IA. Com isso, espera-se uma resposta mais rápida às denúncias, incluindo a remoção de URLs e ações penais quando cabíveis.

Para promover maior transparência, os autores recomendam ainda a obrigatoriedade de os buscadores divulgarem relatórios periódicos com dados sobre o número de URLs removidas, ações tomadas e o impacto das políticas implementadas. Isso garante um controle social maior sobre o combate às plataformas nocivas e incentiva o diálogo multissetorial para a criação de um protocolo global de resposta aos deepfakes e conteúdos gerados por IA.

O efeito Grok e a responsabilidade do Google

A análise do impacto do fenômeno Grok evidencia como o mecanismo de busca atua como portal de descoberta dessas plataformas prejudiciais. Yasmin Curzi, coordenadora do estudo e professora, destaca que a indexação pelo Google acaba por legitimar esses sites, reduzindo barreiras técnicas para o usuário comum, que muitas vezes nem possui conhecimento aprofundado na área de tecnologia.

“A indexação desses sites pelo Google amplia exponencialmente o alcance de tecnologias de abuso, facilitando violência de gênero online e abuso infantil em escala industrial”, afirma Curzi. Assim, há uma responsabilidade do buscador não apenas na colocação dos resultados, mas também na proteção dos seus usuários.

Impactos nas escolas e na legislação brasileira

O acesso a plataformas de geração de imagens pornográficas por IA tem impactos diretos no ambiente escolar. Uma pesquisa da SaferNet Brasil de 2025 revelou que 173 vítimas de deepfakes sexuais foram identificadas em escolas de 10 estados brasileiros, envolvendo estudantes, professores e funcionárias. Esses dados reforçam a urgência de ações preventivas e de controle nesses ambientes.

Do ponto de vista legal, a desindexação está fundamentada no Marco Civil da Internet, na Lei Geral de Proteção de Dados Pessoais (LGPD) e no recente Estatuto Digital da Criança e do Adolescente (ECA Digital). Essa legislação impõe às plataformas a responsabilidade de prevenir exposições a conteúdos de abuso e protege as vítimas de ataques virtuais.

Conclusão

O crescimento das plataformas de inteligência artificial que criam imagens falsas de nudez evidencia um dilema ético, social e legal que precisa ser enfrentado com políticas públicas firmes e ações coordenadas. A recomendação da FGV para a remoção e desindexação de sites que oferecem essas ferramentas é um passo importante, pois busca minimizar o alcance do conteúdo prejudicial, proteger a dignidade das pessoas e fortalecer a legislação brasileira contra esses abusos. Além disso, a responsabilidade do Google e de outros buscadores é fundamental nesse combate, visto que sua indexação potencializa o acesso e a legitimação dessas plataformas. Medidas de transparência, canais de denúncia ágeis e atualização de políticas de conteúdo são essenciais para criar um ambiente digital mais seguro, especialmente para crianças, adolescentes e grupos vulneráveis.

Garantir um uso consciente e responsável da inteligência artificial é uma tarefa de todos. É necessário que governos, empresas, sociedade civil e usuários estejam atentos e atuem juntos na construção de um ambiente digital ético, seguro e livre de conteúdos que possam causar danos irreparáveis.

▶️ Me siga no Instagram para conteúdos e dicas rápidas diárias e se inscreva em meu canal do Youtube para assistir tutoriais completos de como usar as melhores IAs.

Tags:

  • Inteligência Artificial e Deepfakes
  • Nudify IA
  • Segurança Digital
  • Legislação e IA
  • Busca Google e Conteúdos Nocivos
  • Deepfake Sexual e Abuso Online
  • Proteção de Crianças na Internet
  • Políticas de Conteúdo Digital
  • Combate a Imagens Falsas
  • Responsabilidade do Google na Internet

Inteligência Artificial e Deepfakes,Nudify IA,Segurança Digital,Legislação e IA,Busca Google e Conteúdos Nocivos,Deepfake Sexual e Abuso Online,Proteção de Crianças na Internet,Políticas de Conteúdo Digital,Combate a Imagens Falsas,Responsabilidade do Google na Internet

Deixe um comentário

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *

AutoIA Start

Aprenda IA e automação com minha metodologia focada para iniciantes AutoIA Start:

AutoIA Expert

Se torne um especialista em automação e IA na minha formação completa AutoIA Expert:

East Rock

Implemente serviços de IA e automação na sua empresa:

Sobre o autor

Billy . William Brandão

William Brandão, mais conhecido por Billy, especialista em Inteligência Artificial e Automações há 5 anos, formado em Sistemas para Web, responsável por potencializar resultados em diversas empresas. Criador da Agência de IA: East Rock, já criou várias soluções incríveis com IA para centenas de clientes. Billy comanda um perfil no Instagram e um canal no Youtube com milhares de alunos democratizando a informação sobre Inteligência Artificial e Automação de forma muito simples e objetiva.

billy

william brandão

Este site não é de forma alguma patrocinado, endossado, administrado ou associado ao Facebook. Você está fornecendo suas informações para Billy e não para o Facebook. As informações que você fornecer serão usadas apenas por Billy para os fins descritos em nossa política de privacidade. Política de Privacidade. A sua privacidade é importante para nós. Para entender como coletamos, usamos e protegemos suas informações pessoais. Termos de Uso. Ao utilizar este site, você concorda com nossos Termos de Uso​

Copyright © 2024 William Brandão, Todos os direitos reservados.

Subscribe for Exclusive Insights and Offers

We never send you spam, we give you a great chance. You can unsubscribe anytime

Subscribe for Exclusive Insights and Offers

We never send you spam, we give you a great chance. You can unsubscribe anytime