Moderadoras de conteúdo violento e explícito para IA sofrem dano psicológico

Mulheres de áreas rurais da Índia passam horas analisando material violento e abusivo para treinar sistemas de IA

IA – Mulheres de comunidades rurais da Índia ocupam uma posição central, e pouco visível, no funcionamento da inteligência artificial moderna. Elas são responsáveis por moderar, classificar e rotular conteúdos violentos, abusivos e pornográficos utilizados no treinamento de algoritmos de grandes empresas de tecnologia. A atividade, descrita em uma reportagem do The Guardian, expõe essas trabalhadoras diariamente a material extremo e tem sido associada a danos psicológicos persistentes.

De acordo com a investigação, muitas dessas mulheres atuam remotamente, a partir de vilarejos em estados como Jharkhand e Uttar Pradesh. O trabalho consiste em analisar imagens, vídeos e textos previamente sinalizados por sistemas automatizados, com o objetivo de ensinar plataformas digitais a identificar violações de regras relacionadas à violência, ao abuso e à exploração. Esse processo é considerado essencial para os sistemas de aprendizado de máquina, que dependem de grandes volumes de dados rotulados por humanos para funcionar.

LEIA: Assinatura digital pelo Gov.br tem mesma validade que a manuscrita, decide STJ

Em um único dia, uma moderadora pode ser exposta a centenas de conteúdos sensíveis. Pesquisadores ouvidos pelo The Guardian afirmam que essa rotina frequentemente resulta em estresse traumático, ansiedade, distúrbios do sono e alterações emocionais prolongadas, mesmo nos casos em que algum tipo de suporte é oferecido pelas empresas contratantes.

Danos psicológicos persistentes

A reportagem cita um estudo publicado em dezembro que incluiu moderadores de conteúdo na Índia e identificou o estresse traumático como o risco psicológico mais significativo associado à atividade. Segundo a pesquisa, mesmo em ambientes onde havia intervenções no local de trabalho ou algum suporte institucional, níveis elevados de trauma secundário continuaram presentes entre os trabalhadores.

Pesquisadores também destacam que o entorpecimento emocional, seguido por efeitos psicológicos tardios, é uma característica recorrente da moderação de conteúdo. Entre os impactos documentados em estudos acadêmicos estão pensamentos intrusivos, ansiedade, mudanças comportamentais e distúrbios do sono, que podem persistir mesmo após o encerramento do vínculo profissional.

Dados da associação indiana de tecnologia Nasscom indicam que cerca de 70 mil pessoas atuavam com anotação de dados no país em 2021. O mercado foi avaliado em aproximadamente US$ 250 milhões naquele ano, com cerca de 60% da receita proveniente dos Estados Unidos e apenas 10% originada no próprio mercado indiano.

Falta de proteção legal

Outro ponto destacado pelo The Guardian é a forma como essas vagas são anunciadas. Muitas descrições são genéricas e não informam claramente o tipo de conteúdo a ser analisado. Em alguns casos, as tarefas mudam após a contratação, passando a incluir a moderação de material sexual explícito ou envolvendo abuso infantil, sem aviso prévio às trabalhadoras.

A reportagem também aponta a ausência de reconhecimento legal dos danos psicológicos nas leis trabalhistas indianas, o que dificulta o acesso a mecanismos formais de proteção. Entre as empresas ouvidas pelo jornal, apenas duas afirmaram oferecer apoio psicológico estruturado. As demais alegaram que o trabalho não exigiria esse tipo de cuidado.

Além disso, cláusulas rígidas de confidencialidade impedem que as trabalhadoras relatem suas experiências, inclusive a familiares. Segundo o The Guardian, o medo do desemprego e a falta de alternativas profissionais levam muitas dessas mulheres a permanecer na função, mesmo diante do sofrimento mental causado pela exposição contínua a conteúdos abusivos.

(Com informações de Olhar Digital)
(Foto: Reprodução/Freepik/The Yuri Arcurs Collection)

Facebook
Twitter
LinkedIn
Pinterest
Pocket
WhatsApp
Rolar para cima