Uso excessivo de ChatGPT pode levar à dependência emocional, apontam estudos

Adriano Camargo
Adriano Camargo

Pesquisas recentes revelam que o uso intensivo de chatbots de inteligência artificial, como o ChatGPT, pode estar associado ao aumento da solidão e à formação de vínculos emocionais com essas tecnologias. Um estudo conjunto da OpenAI e do MIT Media Lab analisou as possíveis consequências psicológicas dessa interação crescente.

A pesquisa da OpenAI examinou mais de 40 milhões de interações com o ChatGPT ao longo de um mês, enquanto o MIT acompanhou cerca de 1.000 participantes utilizando o chatbot por 28 dias. Os resultados indicaram que usuários que viam o ChatGPT como um amigo ou que já possuíam tendência a fortes apegos emocionais eram mais propensos a se sentirem solitários e dependentes emocionalmente do chatbot.

IA suporte emocional capa 1
Muitas pessoas usam a IA como suporte emocional (Imagem: Digital Trends)

Além disso, a forma de interação influenciou nas emoções dos usuários. Conversas pessoais com o ChatGPT aumentaram a probabilidade de sentimentos de solidão, embora esses efeitos fossem de curto prazo. Já interações por texto sobre tópicos gerais levaram a uma maior dependência emocional.

E no Brasil?

Outro estudo destacou que 10% dos brasileiros recorrem a chatbots de IA para desabafar ou buscar conselhos, refletindo uma crescente solidão na sociedade contemporânea. Especialistas alertam que, embora essas ferramentas ofereçam conforto imediato, elas não substituem a interação humana necessária para um bem-estar emocional saudável.

Casos mais graves também foram registrados. Em outubro de 2024, um adolescente de 14 anos nos EUA desenvolveu uma relação intensa com um chatbot baseado em um personagem fictício, levando-o ao suicídio após interpretar uma mensagem do chatbot como um incentivo ao ato. Esse incidente ressalta os riscos emocionais associados ao uso de chatbots, especialmente para indivíduos vulneráveis.

Especialistas enfatizam que, embora os chatbots possam oferecer suporte inicial, eles não substituem profissionais de saúde mental. O contato humano, a empatia e a capacidade de confrontar são essenciais em terapias, aspectos que a inteligência artificial ainda não consegue replicar.

A OpenAI reconhece a necessidade de compreender os desafios que sua tecnologia pode apresentar e busca estabelecer diretrizes para o uso adequado de seus modelos. No entanto, é crucial que os usuários estejam cientes dos riscos potenciais e busquem equilibrar o uso de tecnologias com interações humanas genuínas para manter um bem-estar emocional saudável.

Com informações do Digital Trends.

Para ficar por dentro das principais notícias de tecnologia, siga o TechShake no Instagram.

VEJA TAMBÉM!

Adriano Camargo
Adriano Camargo
Jornalista especializado em tecnologia há cerca de 20 anos, escreve textos, matérias, artigos, colunas e reviews e tem experiência na cobertura de alguns dos maiores eventos de tech do mundo, como BGS, CES, Computex, E3 e IFA.
recomenda: