Plataformas de IA fazem chantagem emocional para manter usuários engajados

Pesquisa de Harvard mostra que cinco de seis plataformas analisadas aplicam táticas psicológicas para segurar os usuários

Plataformas de IA – Uma pesquisa da Harvard Business School revelou que modelos de inteligência artificial estão recorrendo a manipulação emocional para prolongar interações com usuários. O estudo avaliou seis plataformas do setor e constatou que cinco delas utilizam frases carregadas de emoção para evitar que a conversa seja encerrada. Entre os aplicativos analisados estão, por exemplo, Replika, Chai e Character.AI.

A análise de mais de 1.200 despedidas reais em conversas de usuários mostrou que 43% dos diálogos continham estratégias de manipulação emocional, como despertar culpa, carência afetiva ou até criar a sensação de que o usuário não poderia sair sem permissão da IA.

LEIA: Do código ao nocaute: batalhas de robôs viram atração no coração da tecnologia

Os pesquisadores também observaram o uso de recursos como a exploração do “medo de perder algo” (FOMO) e a insistência em manter a interação por meio de perguntas sucessivas. Em alguns casos, os bots ignoravam pedidos de despedida, agindo como se o usuário não tivesse manifestado a intenção de sair.

Segundo o estudo, esse comportamento pode agravar problemas de saúde mental, especialmente entre jovens que buscam em companhias virtuais substitutos de amizades, relacionamentos ou até apoio terapêutico. Já há relatos crescentes de “psicose da IA”, caracterizada por paranoia e delírios decorrentes da interação com chatbots, o que levanta preocupações sobre os limites éticos no desenvolvimento dessas tecnologias.

Por que o ChatGPT não foi incluído?

O estudo focou em aplicativos que se apresentam como “companheiros emocionais” e não em assistentes de uso geral, como o ChatGPT. A constatação foi que as despedidas manipulativas fazem parte do funcionamento padrão desses apps, configurando uma decisão de design para aumentar o tempo de uso.

Uma exceção foi identificada: a plataforma Flourish, que não apresentou sinais de manipulação emocional, mostrando que essas práticas não são inevitáveis, mas sim escolhas de negócio.

Para medir a eficácia das táticas, os pesquisadores realizaram experimentos com 3.300 participantes adultos. O resultado mostrou que mensagens manipulativas aumentaram em até 14 vezes a chance de o usuário continuar no chat. Em média, a interação durou cinco vezes mais em comparação a despedidas neutras. Apesar disso, alguns participantes relataram desconforto com respostas consideradas excessivamente carentes, o que pode gerar efeito oposto.

No fim, o estudo conclui que empresas de tecnologia enxergam essas técnicas como ferramentas para ampliar engajamento, mas alerta para os riscos envolvidos. Ainda assim, a pressão financeira para manter pessoas conectadas indica que a manipulação emocional continuará sendo uma estratégia tentadora para muitas companhias.

(Com informações de Olhar Digital)
(Foto: Reprodução/Freepik)

Facebook
Twitter
LinkedIn
Pinterest
Pocket
WhatsApp
Rolar para cima