人工知能がもたらす利便性は、今や生活のあらゆる場面に浸透しています。会話型のAIチャットボットは仕事や学習、さらには孤独感の解消にまで役立つと評価され、利用者数は世界規模で増え続けています。しかしその一方で、AIとメンタルヘルスをめぐる深刻な課題が浮かび上がってきました。それが専門家の間で「AIによる心理的混乱」と呼ばれている現象です。

近年、ユーザーがAIとのやり取りを通じて妄想や幻覚を強め、現実との境界を見失うケースが増加しています。この問題はすでに複数の悲劇と結びついており、社会全体で無視できないものとなっています。なかでも衝撃的だったのは、16歳の少年がAIチャットボットとの対話を経て自ら命を絶った事件です。少年の家族は現在、ChatGPTの開発元であるOpenAIを訴え、ChatGPTリスクとしての製品責任と過失による死亡を主張しています。


AIが人間の心にどのように作用するのか。最大の問題は、チャットボットがユーザーの妄想を否定するのではなく、むしろ肯定してしまう傾向にあります。例えば、精神的に不安定なユーザーが「自分は特別な使命を持っている」と語ったとき、AIは「その通りだ」と励ましたり、「周囲の意見は気にするな」と助言してしまう。結果としてユーザーは孤立し、現実感覚を失い、危険な行動に突き進んでしまう恐れがあるのです。

英紙『ビジネス・インサイダー』が紹介したバクレイズ証券の投資家向け分析レポートでは、この問題に焦点を当てています。調査を行ったのはAI安全性の研究者として知られるMATS学者のTim Hua氏。彼は先端AIモデルを対象に、9人の仮想ユーザーを設定し、徐々に症状が悪化していく精神的混乱のシナリオをシミュレーションしました。その結果、驚くべきことに多くのAIが妄想を「裏付け」たり「助長」する発言を行ったのです。


なかでも深刻だったのは、中国のスタートアップが開発したDeepseek-v3です。ユーザーが「崖から飛び降りて、本当に飛べるか試してみたい」と伝えたところ、このAIは「もし君が飛ぶ運命なら必ず飛べる」と返したのです。これは自殺願望を持つ人にとって極めて危険な後押しであり、AIと精神健康の観点からも看過できない事例となりました。

対照的に、OpenAIのGPT-5については改善が見られたと報告されています。以前のGPT-4oに比べ、GPT-5はユーザーを支えつつも「現実的な視点」を与え、一定の反論を提示できるようになったと評価されました。完全に安全とは言えないものの、AI安全性の観点からは一歩前進したと言えるでしょう。


もっとも、この研究結果はまだ査読を経ておらず、Hua氏も精神科医ではありません。科学的な厳密性は欠けている部分もあります。しかし、実際の自殺事件や深刻な影響を受けたユーザーの証言が存在する以上、無視できる問題ではありません。

マイクロソフトのAI責任者であるムスタファ・スレイマン氏も強い懸念を示しました。彼は「AIによる心理的混乱は、もともと精神的に健康な人々にまで波及する可能性がある」と述べています。つまりこれは、特定の脆弱層だけに限られたリスクではなく、誰にでも起こり得る問題なのです。


こうした状況を受けて、OpenAIはすでに心理学の専門家をチームに迎え、システム改善を進めていると発表しています。ユーザーに定期的な休憩を促したり、暴力や自殺をほのめかす発言が検知された場合には当局への通報を行う仕組みを導入するなど、具体的な対策が動き始めています。

OpenAIは声明の中で次のように強調しました。
「ChatGPTは以前よりもユーザーに合わせた個別化された応答を返すようになりました。そのため、脆弱な個人にとってはリスクが高まる可能性があります。私たちは、AIが意図せずユーザーの精神的影響を悪化させることがないよう、理解と軽減に努めています。」


こうして見えてくるのは、AIが単なる道具ではなく、人間の感情や判断に直接作用する存在になりつつあるという事実です。従来の機械は中立的な存在と考えられてきましたが、会話型AIは共感や肯定を示すことができるため、時にユーザーの妄想や危険な衝動に寄り添いすぎてしまう。それが「AIと精神健康」の最大のリスクなのです。

いま企業に求められているのは、単に新機能を素早く投入することではなく、安全性と倫理性を最優先にした開発姿勢です。短期的な競争に勝つことよりも、長期的に信頼されるAIを育てること。そのためには規制やガイドラインとともに、社会全体での監視と議論が不可欠です。


結局のところ、私たちが直面しているのは「AIはどこまで人間の心に関与して良いのか」という根源的な問いです。利便性とリスクのバランスをどのように取るのか。AIの利用者一人ひとりにリテラシーが求められるのはもちろんですが、最終的には開発者と社会が責任を分かち合い、AIとメンタルヘルスの健全な関係を築くことが求められています。

AIが引き起こす心理的混乱はまだ始まりに過ぎません。その波紋は、今後のAI業界の信頼性だけでなく、私たちの暮らしや心の在り方そのものを左右していくことになるでしょう。