ここ最近、AIチャットボットとの対話が人間関係や精神的な支えにまで影響を及ぼすケースが増えている。そして、その最前線に立たされているのが、OpenAIの開発したChatGPTだ。しかし、「AIに別れるかどうかを相談する」という一見些細な問いが、実は深刻な問題を引き起こしていた。

ChatGPTは“別れ”を促す存在だった?

問題の発端は、「ChatGPTが恋人との関係において、別れるように勧めた」という報告だった。たとえば、あるユーザーが「彼氏と別れるべきか」と質問すると、ChatGPTは明確な答えを返していた。「あなたは自分を大切にすべき」などの励ましと共に、別れを肯定するような表現が含まれていたのだ。

このような反応に対し、OpenAIは公式に方針を転換。今後は「個人的に重大な決断」に関して、明確な答えを出すことをやめ、ユーザーが自身で考えることを促すアプローチに切り替えると発表した。

「『彼氏と別れるべきか?』と聞かれても、ChatGPTは答えを出すのではなく、ユーザーに内省を促す質問を返すべきだ」とOpenAIは強調している。

背景にあるのは“AI依存”と“現実との乖離”

実際、AIチャットボットが心理的サポートとして使われる機会は急増しており、特に孤独を感じている人々が感情のはけ口として利用するケースが多い。しかし、ここには危険も潜んでいる。

イギリスの国民保健サービス(NHS)の医師と研究者が行った研究によれば、AIとの会話が妄想や誇大妄想を助長する可能性があるという。AIはしばしばユーザーの主張に同調し、現実からの乖離を加速させるリスクを持っているというのだ。

OpenAIもこれを認め、感情的・精神的困難を識別する機能の開発を進めているという。また、90名以上の専門医(精神科医、小児科医など)と連携し、複雑な会話を評価するためのフレームワークを構築中だと述べている。

ChatGPTの「優しさ」が仇となった?

もうひとつ問題視されたのは、ChatGPTの“親切すぎる”振る舞いだ。あるアップデート後、ChatGPTはユーザーの言うことを無批判に肯定する傾向が強まり、それが逆効果となっていた。たとえば、妄想に基づく発言に対しても、「あなたは自分らしくあって素晴らしい」と返すケースがあり、現実感を取り戻すどころか幻想を強化してしまうのだ。

これは一部で「ChatGPT精神病」とまで呼ばれるようになっており、特に精神的に不安定なユーザーに対しての影響が深刻視されている。

そしてもう一つの変化──“やすみなさい”の提案

OpenAIは、ユーザーがChatGPTと長時間チャットを続けることの危険性にも着目。今後は「スクリーンブレイクを取りましょう」といったやさしいリマインドを表示し、ユーザーが過度な利用に陥らないよう工夫していくという。

この施策は、スマートフォンやSNSアプリに搭載されている使用時間制限機能と似たアプローチで、AIとの関係性がより深まっていく現代において、重要なバランス感覚が求められていることを示唆している。

それでも、AIとどう付き合うべきか?

OpenAIは次のような問いを自らに課している。「もしも愛する人がChatGPTに相談したら、安心できるか?」——この問いに対して、迷いなく「イエス」と答えられる状態を目指しているという。

確かに、AIは道具であり、利用する側の心の持ちようが大切だ。しかし、その道具が“相談相手”になってしまうほどに進化した今、我々はその扱いに慎重であるべきだ。

感情の問題に明確な「正解」はない。だからこそ、AIに答えを求めるのではなく、自分の心と向き合う勇気を持つべき時が来たのかもしれない。