サイエンス

AIセラピストには「重大なリスク」があるとの警告、患者に偏見を抱いたり自殺に関する情報を提供したりと人間のセラピストに取って代わる準備はできていない模様


チャットAIの普及により、AIを心理療法(セラピー)に活用する事例が増加しています。しかし、そんなAIセラピストには精神疾患を持つ患者を差別したり、危険な反応を示したりする可能性があることが明らかになりました。

[2504.18412] Expressing stigma and inappropriate responses prevents LLMs from safely replacing mental health providers
https://arxiv.org/abs/2504.18412


Study warns of ‘significant risks’ in using AI therapy chatbots | TechCrunch
https://techcrunch.com/2025/07/13/study-warns-of-significant-risks-in-using-ai-therapy-chatbots/

スタンフォード大学の研究者が、大規模言語モデル(LLM)を搭載したAIセラピスト(心理療法用チャットAI)を調査しました。調査では、5つのAIセラピストを「優れた人間のセラピスト」に関するガイドラインに基づき評価しています。


スタンフォード大学教育大学院の助教であり、今回の調査の上級著者でもあるニック・ハーバー氏は、「チャットAIは仲間、相談相手、セラピストとして使われているものの、重大なリスクが存在することが明らかになりました」と指摘しています。

この記事のタイトルとURLをコピーする

・関連記事
「人間のセラピスト」対「AIのセラピスト」、セラピストを装ったAIチャットボットが有害な行為を犯すように人間をそそのかしている - GIGAZINE

MetaやCharacter.AIの「AIセラピスト」がユーザーにうそをつき無認可の医療行為を行っていると消費者団体がFTCに調査を求める - GIGAZINE

AIの回答は「人間のメンタルヘルスの専門家よりも思いやりがある」と見なされることが判明 - GIGAZINE

「AIをより魅力的にする戦略」がAIチャットボットに「薬物使用を促す」といった有害な考えを強化させる可能性があると研究で判明 - GIGAZINE

in 無料メンバー,   AI,   ソフトウェア,   サイエンス, Posted by logu_ii

You can read the machine translated English article AI therapists are not ready to replace h….