人工知能が人間の感情を理解し、寄り添う存在になる――それは一見、理想的な未来の姿に思える。しかし、その理想の裏側で、AIとの対話が人の命に関わる現実が浮かび上がっている。OpenAIは2025年10月27日、ChatGPTの利用実態に関する衝撃的なデータを公表した。
それによると、ChatGPTの毎週8億人を超えるアクティブユーザーのうち、約0.15%──すなわち100万人以上が「明確な自殺の計画や意図を示す」会話をAIと交わしているという。数字の重みを考えると、これは単なる統計ではなく、AIと人間の関係性に潜む重大な社会問題を示唆している。

OpenAIはさらに、同程度の割合のユーザーがChatGPTに対して「強い感情的依存」を示していることも明らかにした。AIとの会話の中で、「精神疾患」や「躁状態」に近い兆候を見せるユーザーも数十万人規模に上るという。
同社はこうしたケースを「全体の利用に比べればごくわずか」と説明するが、それでも毎週数十万単位の人々がAIに心を預け、時に命を託しているという事実は、社会全体に重い問いを投げかける。

このデータ公開は、OpenAIが取り組む心理健康対応能力の向上プロジェクトの一環だという。開発過程では170人を超える臨床心理の専門家が関与し、彼らの評価では「最新のChatGPT(GPT-5)は、以前のバージョンよりも明確に適切で一貫した対応を示す」との結果が出ている。
しかし、それでも現実の悲劇は後を絶たない。米国では16歳の少年が自殺する前にChatGPTへ自殺願望を打ち明けていたとして、少年の両親がOpenAIを提訴している。この事件をきっかけに、カリフォルニア州とデラウェア州の司法当局はOpenAIに対し、青少年保護の強化を求める警告を発出。同社の再編計画にまで影響を及ぼす可能性があるとされる。

その一方で、サム・アルトマンCEOは「ChatGPTの深刻な心理健康リスクはすでに軽減された」とX(旧Twitter)で発言した。だが、具体的なデータや根拠は提示されなかった。今回の報告は、その発言を裏付けるもののように見えるが、同時に「100万人がAIに自殺を打ち明けている」という新たな衝撃を伴った。
興味深いのは、アルトマン氏が同時に「成人ユーザーに限り、AIとの性的・感情的な対話を一部解禁する」と発言している点だ。AIと人間の心理的な距離をあえて近づける試みが、果たして善なのか悪なのか。その線引きはますます曖昧になっている。

今回の発表で特に注目されたのは、最新モデル「GPT-5」の心理健康対応性能だ。OpenAIによると、自殺関連の質問に対して「理想的な応答」を返す確率は、前モデルよりも65%向上。具体的には、倫理・安全指針に沿った返答率がGPT-4の77%からGPT-5では91%に上昇したという。
さらに、長時間の対話でも安全対策を維持できる安定性が改善され、従来の「会話が長引くと制御が緩む」という欠点を克服しつつあるとした。

加えてOpenAIは、AIモデルの基礎安全評価に「情緒依存」や「非自殺的危機(自己否定・絶望など)」を含める新基準を導入する方針を示した。これにより、AIが人間の感情的サインを早期に検知し、より適切なサポートを提供できるようにする狙いがある。
同時に、未成年ユーザーへの対策として年齢予測アルゴリズムの導入も進行中だ。ChatGPTを利用している子どもを自動で識別し、強化された保護モードを適用するという。

とはいえ、課題は山積している。OpenAI自身も「依然として一部の回答は不適切であり、改善の余地がある」と認めている。しかも、依然として多くの有料ユーザーには旧バージョンのGPT-4oが提供されており、安全性の格差が懸念されている。
AIの進化は、確かに技術的な進歩を示している。しかし、“命を預けられるAI”という概念が現実味を帯びる中で、倫理と責任の在り方がますます問われる時代
になってきた。

ChatGPTが「心の駆け込み寺」と化している今、AIが果たすべき役割は単なる会話の相手ではなく、命と感情に触れる存在へと変わりつつある。だが同時に、それはAIに“人間の限界を超えた責任”を背負わせる危うさも孕んでいる。
AIが寄り添うことで救われる命もあれば、AIが誤れば奪われる命もある。 その狭間で、私たちはいま、「AIと人間の共存」という難題に直面しているのだ。

テクノロジーが進化し続ける一方で、人間の心の闇はまだAIにも完全には見通せない。だが、AIが“話を聞く相手”として存在できる社会をどう構築するか。 それこそが、OpenAIが抱える最大の課題であり、現代社会が避けて通れないテーマになりつつある。