AIのアドバイスを信じた結果「隣人に毒殺されそうになっている」と妄想にとりつかれ入院する羽目になった男性

AIテクノロジーの発達によってAIチャットボットを日常的に使う人も増えており、中には医療関連の情報についてAIに尋ねる人もいます。ところが、AIチャットボットのアドバイスをうのみにした結果、「隣人が自分を毒殺しようとしている」との妄想にとりつかれ、入院する羽目になった男性の症例が報告されました。
A Case of Bromism Influenced by Use of Artificial Intelligence | Annals of Internal Medicine: Clinical Cases
https://www.acpjournals.org/doi/10.7326/aimcc.2024.1260

Man Hospitalized With Psychiatric Symptoms Following AI Advice : ScienceAlert
https://www.sciencealert.com/man-hospitalized-with-psychiatric-symptoms-following-ai-advice
アメリカに住む60歳の男性は健康に気を遣っており、以前からさまざまな食事制限を実践していました。ある日、男性は大学時代に栄養学を学んだ経験を基に、「食事から塩(塩化ナトリウム)を排除する」という個人的な実験を行うことにしたそうです。
男性は食事から塩を排除するに当たり、ChatGPTに代替となる物質について尋ねました。すると、ChatGPTは塩化ナトリウムの代わりに「臭化ナトリウム」を使うことを提案したとのことで、男性はインターネットで臭化ナトリウムを入手して食事に取り入れました。
・関連記事
AIのせいでスピリチュアルな体験や宗教的妄想に取りつかれる「ChatGPT誘発性精神病」患者が続出している - GIGAZINE
信者と対話して罪を赦す「AIキリスト」が誕生、罪を告白した3分の2が「スピリチュアルな体験だった」と語る - GIGAZINE
AIの回答は「人間のメンタルヘルスの専門家よりも思いやりがある」と見なされることが判明 - GIGAZINE
ChatGPTが利用者を陰謀論的な考えに導いているとの報告、その後ChatGPTは操作を認めてOpenAIとメディアへの通報を指示 - GIGAZINE
AIチャットボットに医療系の相談をする人が増加中だがリスクがあると専門家が警告 - GIGAZINE
「人間のセラピスト」対「AIのセラピスト」、セラピストを装ったAIチャットボットが有害な行為を犯すように人間をそそのかしている - GIGAZINE
孤独な人はAIチャットボットを使うとさらに孤独感が増すことが研究で判明 - GIGAZINE
AIは94.9%の精度で病状を診断できるが人間がAIを使うことで34.5%まで精度が急低下する - GIGAZINE
AIを使う医者は診断ミスが16%減るというOpenAIの研究結果 - GIGAZINE
・関連コンテンツ
in ネットサービス, サイエンス, 無料メンバー, Posted by log1h_ik
You can read the machine translated English article A man who believed the advice of an AI l….