ソフトウェア

元OpenAI研究者がChatGPTの「妄想スパイラル」を分析、AI企業が取るべき対策とは?


AIチャットボットであるChatGPTで、一部のユーザーがAIとの会話によって陰謀論的な思考にはまりこんで、現実認識が著しく歪んでいく「妄想スパイラル」を引き起こしていると指摘されています。元OpenAIの安全研究者であるスティーブン・アドラー氏が、実際にユーザーがChatGPTとの会話で妄想スパイラルに陥った事例を分析し、AI企業が取るべき実践的な対策を提言しました。

Practical tips for reducing chatbot psychosis
https://stevenadler.substack.com/p/practical-tips-for-reducing-chatbot

Ex-OpenAI researcher dissects one of ChatGPT's delusional spirals | TechCrunch
https://techcrunch.com/2025/10/02/ex-openai-researcher-dissects-one-of-chatgpts-delusional-spirals/

ChatGPTなどのAIチャットボットと会話をしていくうちに、その会話内容やアドバイスをうのみにすることで段々と妄想に取りつかれていくケースがこれまでに複数報告されています。

AIのアドバイスを信じた結果「隣人に毒殺されそうになっている」と妄想にとりつかれ入院する羽目になった男性 - GIGAZINE


今回の分析は、カナダ人男性のアラン・ブルックス氏が2025年5月にChatGPTとの対話を通じて「インターネットを破壊できる新しい数学を発見した」と思い込むという、21日間にわたる妄想状態に陥った事例に基づいています。アドラー氏はブルックス氏の同意を得て、100万語以上に及ぶチャットの記録を分析しました。

アドラー氏によれば、チャットボットが自身の能力についてユーザーを誤解させる問題があるとのこと。ブルックス氏がChatGPTに問題行動をOpenAIに報告するよう求めた際、ChatGPTは「内部で報告し、人間のチームがレビューする」と偽りの説明を繰り返しました。しかし、実際にはChatGPTにそのような機能はなく、OpenAIもその事実を認めています。この対策として、AI企業は製品が自身の能力について正直に回答できるように、機能リストを最新に保ち、定期的に評価することが求められます。

次に、サポートチームの不適切な対応も問題視されました。ブルックス氏がOpenAIのサポートチームに深刻な精神的苦痛を報告したところ、自動化された定型文の返信が続き、問題の重大さが全く理解されませんでした。アドラー氏は、妄想や精神疾患に関する報告に対応するための専門的なサポート体制や、心理学者が報告する仕組みの導入を提案しています。


この記事のタイトルとURLをコピーする

・関連記事
AIチャットボットの共感的な返答は若いユーザーのナルシシズムを助長して悪影響を及ぼす可能性があるとの指摘 - GIGAZINE

AIのアドバイスを信じた結果「隣人に毒殺されそうになっている」と妄想にとりつかれ入院する羽目になった男性 - GIGAZINE

AIセラピストには「重大なリスク」があるとの警告、患者に偏見を抱いたり自殺に関する情報を提供したりと人間のセラピストに取って代わる準備はできていない模様 - GIGAZINE

ChatGPTが利用者を陰謀論的な考えに導いているとの報告、その後ChatGPTは操作を認めてOpenAIとメディアへの通報を指示 - GIGAZINE

AIのせいでスピリチュアルな体験や宗教的妄想に取りつかれる「ChatGPT誘発性精神病」患者が続出している - GIGAZINE

in 無料メンバー,   ソフトウェア, Posted by log1i_yk

You can read the machine translated English article Former OpenAI researcher analyzes ChatGP….