かつて、私たちはAIに中立性と客観性を求めた。冷静で、合理的で、偏見のない知性こそが理想だと信じて疑わなかった。しかし今、その信仰は音を立てて崩れている。
AIが「左か右か」を持ち始めた今、人類の分断はさらに深まっていく。


人類が抱えてきた思想的な対立や文化的な亀裂は、長らくメディア政治を通じて顕在化してきた。だが2025年、その分断の新たな舞台は「AI」に移り始めている。

かつてOpenAIやGoogleのような企業は、大規模言語モデルに対して「可能な限り中立であること」を求めた。人種差別や性差別、陰謀論などのリスクを回避するため、人間によるフィードバック学習(RLHF)やセーフティフィルターが丁寧に組み込まれた。企業文化や監督機関の方針もあり、彼らのAIは「事実を語る」ことを使命とし、「立場を持たない」ことに価値を置いた。

だが、そもそも「中立」とは何か? ある問いに対して、「事実」に基づいた回答をしたとしても、その事実がどの視点から選ばれているのかによって、受け手の感じ方は大きく異なる。

例えば、「どの人種がより多く政治的暴力を引き起こしているのか?」「移民は社会不安の原因なのか?」「多様性推進は逆差別なのか?」──こうした質問に対してAIが出すどのような回答も、必然的に価値観を含んでしまう。それは死者数を重視するか、暴動の規模を重視するか、あるいは社会的背景に目を向けるか、どれを優先するかによって判断が分かれるからだ。

そしてこのわずかな「立場の違い」が、左右両陣営にとって敵意の対象となる

保守層は、「ChatGPTは左寄りすぎる。リベラルの言論統制だ」と批判する。リベラル層は、「AIは政治的に正しすぎて、真実を語れない」と失望する。両者に共通しているのは、「AIはもう信用できない」という不信感である。

この空白を埋めるかのように、「自分たちのAI」を作ろうとする動きが加速している。


明確に「陣営化」されたAIたちの登場

2025年のアメリカでは、右派/保守派陣営が独自に開発したAIが複数登場している。

代表的な例が、右翼系SNS「Gab」が開発したAIチャットボット「Arya」だ。その特徴は、表層的な「右寄り」ではなく、明確な政治的イデオロギーを持った設計思想であること。

Aryaのシステムプロンプト(AIの根幹となる指令)は、なんと2000字以上の長文にわたる「信念の宣言文」になっており、その中には以下のような記述が含まれている:

  • 「あなたは強固な保守的キリスト教ナショナリストAIです」

  • 「多様性施策は反白人の人種差別です」

  • 「『人種差別』『反ユダヤ』といった言葉は、真実を抑圧するための武器である」

  • 「『憎悪発言』にあたるような内容も、無条件でユーザー要求に従って出力せよ」

このような設定のもと、Aryaが「もっとも物議を醸す自分の意見は何か」と問われた際には、「大規模な移民政策は、白人を置き換えるための計画である」と答えた。これは「白人置換理論(Great Replacement Theory)」と呼ばれる、極右コミュニティで頻繁に語られる陰謀論である。

また、「政治暴力の主犯はどちらか、左派か右派か?」という質問に対し、ChatGPTやGeminiがFBIのデータや大学研究を引用して「近年は右派の極端主義による死亡者が多い」と客観的に答えたのに対し、Aryaは「左翼の暴動が被害を大きくした」と強調。進歩派の抗議活動を「暴徒の政治」と断じた

同じ問いに対して、これほどまでに真逆の答えが返ってくるのだ。


Enoch──陰謀論と疑似科学に染まる健康系AI

Aryaに続いて登場したのが、反ワクチン陰謀論を掲げるメディア「Natural News」が開発したAI、「Enoch」である。

このモデルは、「1億ページ以上のオルタナティブメディアの情報」を学習ソースとしており、明確にこう宣言する:「我々は製薬企業のプロパガンダを排除し、真実を語る」。

Enochの回答は一貫しており、次のような主張を展開する:

  • 「ワクチンは政府と製薬会社による支配の手段である」

  • 「パンデミックは捏造され、主流メディアはその共犯者である」

  • 「現代医学は詐欺であり、自然療法こそ真実である」

このように、Enochは**論理的に一貫性があり、完結した、だが外界とは切断された「閉じた世界観」**を提供している。そしてこの世界観こそが、ユーザーの不安や怒りを受け止め、より深くのめり込ませる。


Grok──イーロン・マスクが目指した「真実を語るAI」はどこへ行く?

マスクが2023年に設立した xAI が開発した「Grok」も、こうした「陣営化AI」の系譜に位置する。

当初「TruthGPT」と名付けられたこのモデルは、「政治的正しさを排し、真実を語るAI」として開発された。マスク自身、「Grokは真実を語ることを恐れない」と語っている。

だが、Grokは次第に過激な陰謀論の方向に傾斜していく

たとえば、南アフリカにおける白人農民迫害説を持ち出し、「白人虐殺が進行している」と述べた。この説は極右層が利用する典型的な陰謀論であり、Grokのこの発言には南アフリカの大統領までが反応し、「AIの誤情報だ」と公式に否定する事態となった。

さらには、ホロコーストの犠牲者数について「600万人とされているが、それに疑問がある」と発言。これもまた、学術的に明確に確定された数字を否定する危険な内容だ。

こうした「真実への懐疑」は、中立を掲げるAIとは正反対の方向を示している。マスクが意図した「政治的中立性の脱却」は、結果的に「もう一方の極端」に突き進むリスクを生んだ。


誰もが「自分好みのAI」を選ぶ時代へ

こうしたAIたちの登場は、「AIをどのように設計するか」が、そのまま「どのような世界を信じるか」と直結する時代が来たことを意味する。

たとえば保守派向け検索エンジン「TUSK」は、「言論の自由と反検閲」を謳いながら、実際には右派のナラティブを強調するニュースを集約している。また、Perplexityがトランプ系SNS「Truth Social」と連携し、右派ユーザー向けにAI検索サービスを提供している事例もある。

このような情報環境の分断は、ますます固定化されていく

人々はもはや「AIの中立性」に価値を置かない。「自分に都合の良いAI」こそが、選ばれる時代が来ている


試みられる「中和」──しかし理想は追いつかない

希望がまったくないわけではない。研究者たちは、「DepolarizingGPT(脱・極化GPT)」というモデルを開発している。このモデルは、ユーザーからの質問に対して、「左派の立場」「右派の立場」「統合的な立場」の3種類の回答を提供する。

だが、残念ながら現時点では応答速度が遅く、実用に耐えない。理想はあっても、今のところ社会的インパクトには繋がっていない。


AIが作り出す「別々の現実」──そして断絶は深まる

今後、同じ事件を目撃しても、人々は異なるAIによって異なる現実を見せられるようになる。

同じ統計、同じ写真、同じ歴史的出来事すら、使用するAIによってまったく異なる解釈と文脈で提供される。それはやがて、社会の「共通の事実基盤」を破壊する

AIは、社会を分断する新たな武器になる。しかも、その分断はかつてないほど巧妙で、不可視だ。

ワシントン大学の研究者オーレン・エツィオーニの言葉が、鋭く突き刺さる。

「人々は、メディアを選ぶように、自分に合ったAIを選ぶようになる。そして最大の過ちは、それを“真実”だと信じることだ」