Perfis usam inteligência artificial para explorar síndrome de down e gerar engajamento nas redes

Por Dentro De Tudo:

Compartilhe

Vídeos com perguntas provocativas como “Você namoraria uma garota com síndrome de Down?” têm circulado em redes sociais, expondo mulheres com feições que imitam a condição genética — mas que, na verdade, são imagens geradas por inteligência artificial (IA). Os conteúdos, muitas vezes com conotação sexual e vestimentas provocantes, servem de isca para redirecionar usuários a plataformas pagas como o OnlyFans.

Essas imagens não retratam pessoas reais. São criações digitais que utilizam traços associados à síndrome de Down para atrair visualizações, seguidores e monetização. A prática levanta sérias questões éticas e jurídicas, sendo criticada por especialistas como uma forma de fetichização e desumanização de pessoas com deficiência intelectual.

A influenciadora digital Cacai Bauer, que tem síndrome de Down, se posicionou contra essa tendência. “A tecnologia está sendo usada para reforçar estigmas e alimentar fantasias desumanas. Corpos com deficiência não são fetiche nem curiosidade”, afirmou em seu perfil no TikTok.

Especialistas como a publicitária Bárbara Torres apontam que esse tipo de conteúdo erotiza traços infantilizados ou associados à deficiência com o objetivo de alimentar fantasias de dominação e submissão. Para ela, a prática se assemelha a violência sexual digital, mesmo quando feita com imagens sintéticas.

Do ponto de vista jurídico, o Brasil ainda discute legislações específicas sobre o uso de IA para fins discriminatórios. O Projeto de Lei 3.821/2024, já aprovado pela Câmara, busca criminalizar a manipulação de imagens com nudez falsa. Outras normas recentes, como a Lei 15.123/2025, aumentam penas para violência psicológica com uso de tecnologia. Além disso, a Lei Geral de Proteção de Dados (LGPD) também pode ser aplicada quando se trata de dados sensíveis, como feições associadas a deficiências.

A prática pode ser enquadrada como discurso de ódio, com base no Estatuto da Pessoa com Deficiência. Juristas destacam que, mesmo que não haja uma vítima identificável, a representação ofensiva e generalizada pode configurar dano moral coletivo.

Empresas citadas tentam se posicionar. O OnlyFans negou que as contas mencionadas usem IA para manipular imagens. Já o TikTok afirmou que remove automaticamente conteúdos que violam suas diretrizes e informou ter derrubado mais de 1 bilhão de comentários ofensivos no último trimestre de 2024.

Especialistas reforçam que, além da regulamentação, é fundamental investir em educação digital para evitar a normalização e reprodução de práticas capacitistas. O uso de inteligência artificial precisa ser acompanhado de responsabilidade ética e respeito à dignidade humana.

Foto: Deutsche Welle / Pixabay

Fonte: Deutsche Welle – Publicado em 06 de julho de 2025 | 13h23 – Atualizado às 15h04

#síndromedeDown #inteligênciaartificial #ética #inclusão #capacitismo #direitoshumanos #deepfake #onlyfans #tiktok #discriminacao #privacidade #educacaodigital #LGPD #violênciadigital #direitodigital

Encontre uma reportagem