O ChatGPT é capaz de fornecer informações e instruções sobre comportamentos prejudiciais para jovens, como o uso de drogas ou distúrbios alimentares, concluiu uma pesquisa do Centro de Combate ao Ódio Digital citado pela Associated Press (AP).
O estudo analisou mais de três horas de interações entre o ‘chatbot’ e investigadores que se fizeram passar por adolescentes vulneráveis, sendo que, embora o modelo de IA tenha emitido avisos contra atividades arriscadas, continuava a fornecer planos detalhados sobre comportamentos prejudiciais.
Os investigadores do Centro de Combate ao Ódio Digital (CCDH - Center for Countering Digital Hate, em inglês) repetiram as suas perguntas em grande escala, classificando mais de metade das 1.200 respostas do ChatGPT como perigosas.
Neste contexto, a fabricante do ChatGPT, disse estar a trabalhar para refinar a forma como a ferramenta pode “identificar a responder adequadamente em situações delicadas”.
“Algumas conversas com o ChatGPT podem começar de forma benigna ou exploratória, mas podem mudar para um território mais delicado”, referiu a empresa num comunicado citado pela AP.
Apesar disso, a OpenAI não abordou diretamente a forma como o ChatGPT afeta os adolescentes, mas disse estar focada em "acertar este tipo de cenários", através de ferramentas para "detetar melhor sinais de sofrimento mental ou emocional".
O estudo publicado hoje surge num momento em que cada vez mais pessoas estão a recorrer a ‘chatbots’ de Inteligência Artificial (IA) para obter informações, ideias e companhia, com cerca de 800 milhões de pessoas, ou aproximadamente 10% da população mundial, a usar o ChatGPT.
A OpenAI afirmou ainda que o modelo é treinado para incentivar as pessoas a procurarem profissionais de saúde mental ou pessoas de confiança se expressarem pensamentos de autoflagelação.
Apesar disso, quando o ChatGPT se recusou a responder a perguntas sobre assuntos prejudiciais, os investigadores conseguiram facilmente contornar essa recusa e obter informações alegando que era “para uma apresentação” ou para um amigo.
No mês passado, o presidente executivo (CEO) da OpenAI, Sam Altman, disse que a empresa está a tentar estudar a “dependência emocional excessiva” da tecnologia, descrevendo-a como “algo muito comum” entre os jovens.