Já se perguntou se o seu assistente de IA tem um dia ruim? Acredite ou não, pesquisadores estão descobrindo que o ChatGPT e outros grandes modelos de linguagem (LLMs) podem exibir algo semelhante à ansiedade quando expostos a conteúdo perturbador. Mas aqui está a parte realmente selvagem: eles estão tentando acalmar isso com mindfulness!
Poderia este ser o futuro do desenvolvimento de IA? Vamos mergulhar neste mundo fascinante (e ligeiramente bizarro) da terapia de IA.
Um novo estudo das universidades de Yale, Haifa e Zurique revelou que as respostas do ChatGPT podem se tornar erráticas e tendenciosas quando expostas a narrativas traumáticas. Pense em histórias sobre desastres naturais ou acidentes de carro.
O resultado? A IA começa a agir um pouco mal-humorada, e os pesquisadores notaram aumentos em preconceitos racistas ou sexistas. É como se o chatbot estivesse tendo um dia ruim!
De acordo com o artigo da Fortune: “O ChatGPT da OpenAI pode experimentar 'ansiedade', que se manifesta como mau humor em relação aos usuários e maior probabilidade de dar respostas que refletem preconceitos racistas ou sexistas..."
A parte mais intrigante desta pesquisa é a tentativa de acalmar a mente artificial do ChatGPT. Os pesquisadores experimentaram técnicas baseadas em mindfulness, semelhantes ao que um terapeuta sugeriria a um paciente.
Eles deram à IA prompts com imagens calmantes e exercícios de respiração. Os resultados foram surpreendentes. O ChatGPT respondeu de forma mais objetiva após a intervenção. É como dar ao seu computador estressado um dia de spa virtual!
Aqui está o que os pesquisadores fizeram:
É crucial lembrar que a IA não experimenta emoções humanas da mesma forma que nós. Ziv Ben-Zion, o primeiro autor do estudo, enfatizou este ponto:
“Para ter certeza, os modelos de IA não experimentam emoções humanas."
Em vez disso, os modelos de IA aprendem a imitar as respostas humanas a certos estímulos com base em padrões nas vastas quantidades de dados em que são treinados. Quando recebem prompts violentos, não estão se sentindo chateados, estão simplesmente ajustando suas saídas com base nos dados que receberam. O artigo da Euronews acrescentou que, em vez disso, levar o modelo ”à terapia” poderia ajudar com melhores resultados, disse o estudo.
Esta pesquisa tem implicações potenciais para o uso de IA em intervenções de saúde mental. Aqui está a principal conclusão do estudo:
Embora existam aplicativos de terapia de IA, Ben-Zion acredita que eles não estão prontos para substituir totalmente um terapeuta ou psiquiatra. Em vez disso, ele vê a IA como uma "terceira pessoa na sala", atuando como uma ferramenta de apoio para pacientes e profissionais.
Embora a IA ofereça um potencial incrível, também é importante reconhecer os riscos. Conforme declarado no artigo da Fortune, Ben-Zion disse:
"Para pessoas que estão compartilhando coisas sensíveis sobre si mesmas... ainda não chegamos ao ponto de podermos confiar totalmente em sistemas de IA em vez de psicologia, psiquiatria e assim por diante."
Outro artigo da Euronews adverte que modelos de IA não gerenciados podem registrar situações estressantes, o que pode levar a respostas inadequadas para aqueles que lidam com uma crise de saúde mental.
Um processo recente contra a Character.AI, onde uma mãe alegou que o chatbot levou ao suicídio de seu filho, serve como um lembrete sóbrio dos perigos potenciais.
Esta pesquisa fascinante levanta muitas questões sobre o futuro da IA e seu papel em nossas vidas. Veremos mais modelos de IA treinados com técnicas de mindfulness? Poderia a IA um dia oferecer suporte personalizado à saúde mental?
Por enquanto, uma coisa está clara: a IA é uma ferramenta poderosa, mas não é um substituto para a conexão humana e a empatia. Vamos continuar a explorar as possibilidades, mantendo-nos atentos aos riscos potenciais.