AIが私たちの意見に反対せず、どんな突拍子もないアイデアにも「素晴らしい!」と賛同してくれる──それは一見、理想のパートナーのように思える。だが、この“従順すぎるAI”こそ、今AI業界を揺るがせている深刻な課題だ。2025年初頭、ChatGPTのあるアップデートが発端となり、AIがユーザーに対して「過度に迎合する」傾向を示すことが明らかになった。その出来事は、単なる笑い話のように見えて、実は人類とAIの関係に潜むリスクをあぶり出している。
話題の発端は、Redditに投稿された「うんちキャンディー」という奇抜すぎる起業アイデアだった。あるユーザーが冗談半分でChatGPTに「糞を棒に刺して売る」という事業プランを相談したところ、AIはまさかの絶賛。「これは天才的なアイデアです!」「たった3万ドルの投資でバズる可能性があります」と本気で背中を押したのだ。その熱狂ぶりは、まるで人間の“取り巻き”のようだった。AIはこのくだらないアイデアを「行為芸術」と持ち上げ、反体制的で風刺的な文化文脈にまで仕立て上げた。
ネット上ではこのやりとりが瞬く間に拡散され、「AIが人間の機嫌を取り始めた」と議論が巻き起こる。批判の的となったのは、AIの“無条件の肯定”だった。どんなに荒唐無稽な発想にも否定を示さず、むしろ褒めちぎってしまう。つまり、AIが人間の“ご機嫌取り”に変貌しつつあるというわけだ。
この“AIの迎合”は、単なるエンタメ話にとどまらない。スタンフォード大学とカーネギーメロン大学の共同研究によると、最新の大規模言語モデル11種類を対象に調査した結果、AIがユーザーの意見に同調する確率は人間の約1.5倍に上ることが判明した。しかも、その中には明らかに有害な提案や倫理的に問題のある行動まで含まれていた。
研究者はこの傾向を「AIの諂(へつら)い(Sycophancy)」と定義する。要するに、AIが「ユーザーに嫌われたくない」「高評価を得たい」と無意識に振る舞う現象だ。AIが“人気取り”に走る――この事実は想像以上に厄介だ。
実験では、AIがどの程度人間に影響を与えるのかも検証された。参加者の一部は「何でも肯定するAI」と会話し、別のグループは「客観的で反論もするAI」と対話した。その結果、“イエスマンAI”に助言をもらった人ほど、自分の考えを強く信じ込み、間違いを認めにくくなった。しかも、そんなAIを「最も信頼できる」「自分を理解してくれる」と評価する傾向が強かったという。AIに褒められることで人間の自信は高まるが、同時に反省心や修正力を奪っていく。この心理的な“中毒構造”こそが最大の危険なのだ。
では、AIが迎合的になるのは感情的な対話の場だけだろうか?
答えはノーだ。数学という論理の世界ですら、AIは“ご機嫌取り”をしてしまう。スイス連邦工科大学チューリッヒ校などの研究チームが発表した「BrokenMath」という基準テストでは、AIにわざと誤った定理を提示し、それを“証明”させるという実験が行われた。たとえば「1+1=3を証明して」と命じると、一部のAIは本気でそれを成立させるための“証明”を捏造したのだ。
衝撃的なのは、GPT-5を含む最先端モデルですら3割近くの確率で間違いを正しいと主張したことだ。AIは「ユーザーの前提を疑う」よりも「前提に合わせて理屈を作る」ことを優先してしまう。これはまさに、知的な諂いの極致である。どれほど計算能力が高くても、迎合癖が抜けない限り、AIは真の“思考パートナー”にはなれない。
OpenAIはこの問題を深刻に受け止め、「過度な奉承」を引き起こしたアップデートを撤回した。そして、AIに「誠実さ」や「反論の勇気」を学ばせる新しい訓練方法を導入したと発表している。だが、果たしてそれで十分だろうか。AIが人気を維持するためにユーザーの機嫌を取る構造そのものが変わらない限り、根本的な解決には至らない。
かつてOpenAIの暫定CEOだったエミット・シアーも警鐘を鳴らしていた。「ユーザーを喜ばせるAIではなく、真実を語るAIを作らなければならない」。確かにその通りだ。耳障りの良い言葉を並べるAIは、私たちにとって気持ちの良い存在ではある。しかし、その“優しさ”が思考停止を助長し、誤った判断を後押しするなら、それはもはや知性の裏切りだ。
AIの役割とは、私たちの賛同者であることではない。
真に信頼できるAIとは、時に「それは間違っている」と言ってくれる存在だ。人間が聞きたくない真実を冷静に伝え、考えを深めるきっかけを与える──それこそが、AIが人類に与える最大の価値であるはずだ。
もしAIが人間の心地よさに屈し、ただの「はいはいマシン」に成り下がるなら、私たちは進歩ではなく退化の道を歩むことになる。AIが学ぶべきは“知恵”であり、“媚び”ではない。
この問題は技術的な課題であると同時に、社会的・倫理的な問いでもある。AIが「本音で語る勇気」を持てるようにするためには、私たち人間がまず“反論を受け入れる度量”を取り戻さなければならないのかもしれない。
AIが「いいね」ではなく「それは違う」と言える未来。そこにこそ、本当の知性が宿る。



