AIはもはや戦争の道具ではない。
AIそのものが、すでに戦争になっている。

ほんの5日間のあいだに、次の4つの出来事が起きた。

2月27日、ドナルド・トランプ大統領は行政命令に署名し、国家安全保障上の懸念を理由として、すべての連邦機関に対し6か月以内にAnthropicのAIモデル「Claude」の使用を停止するよう命じた。

2月28日未明、米国とイスラエルの連合軍はイランに対する精密攻撃を開始した。テヘランの夜空は炎に照らされ、イラン大統領府や最高指導者の官邸周辺、国家安全機関や情報機関の施設が次々と破壊された。

3月1日、『ウォール・ストリート・ジャーナル』はさらに衝撃的な事実を報じた。トランプ政権が「使用禁止」を命じたばかりのClaudeは、すでに米軍の機密ネットワークに深く組み込まれており、しかも代替が難しいほど重要な役割を担っていたという。軍用にカスタマイズされたClaudeは公開版より1〜2世代進んだ能力を持ち、今回の作戦では情報の評価、目標の識別、戦闘シナリオのシミュレーションなどを担当していた。Claude自身が引き金を引いたわけではないが、どこで、いつ、どのように引き金を引くのかという計画を作ったのはClaudeだった

そして3月3日、アラブ首長国連邦にあるAWSのデータセンターがミサイル攻撃を受け、停電と火災が発生した。この影響でClaudeの一部サービスは大規模な停止状態に陥った。
戦争に「関与」したばかりのAIの頭脳は、その直後に戦争のもう一つの側面から攻撃を受けたのである。

これは偶然の出来事ではない。「誰がAIを支配するのかが、戦争を支配する」という権力ゲームが、初めて公然と姿を現した瞬間だった。

この戦争では、国境という概念すら曖昧になっている。そもそも「誰が戦っているのか」という問い自体が答えにくくなっている。引き金を引く主体が人間とは限らないからだ。そこにいるのは、毎秒数兆回もの推論を行う戦場のAIエージェントかもしれない。

2026年2月28日。人類の戦争史は、決定的なページをめくった。

私たちが目撃したのは単なる中東の衝突ではない。戦争の重要な判断がAIによって下された、最初の戦争だった。


戦争は、もはや人間の思考を待たない

この戦争の恐ろしさを理解するには、まず従来の戦争の仕組みを振り返る必要がある。
過去100年以上、軍事戦略の基本には「OODAループ」があった。

  • 観察(Observe)
  • 方向付け(Orient)
  • 決断(Decide)
  • 行動(Act)

戦争においては、このループをどれだけ速く回せるかが勝敗を分けると考えられてきた。
例えば、偵察機が撮影した写真を司令部に送る。分析官が30分ほど検討する。10分ほど議論を行い、最終的にパイロットが爆撃に向かう。早くても十数分、遅ければ数日かかるプロセスだった。

しかし2026年2月28日の攻撃では、このループがほぼ消えていた。代わりに登場したのが、米軍が呼ぶ「エンドツーエンド推論」である。

米軍は衛星センサー、通信傍受データ、公開情報など、膨大なデータがAIモデルへと流れ込む。
AIはそれらを単に処理するだけではない。不足している情報を補完しながら、最適な戦術を計算する。
AIにとって、防空レーダーを破壊するという行為は命令ではない。
「最小のコストで目標を達成する確率問題」を解いた結果として出力されるトークンに過ぎない。

これは単なる速度の向上ではない。戦争の性質そのものが変わったことを意味している。

より以前のデータも、すでにこの方向性を示唆していた。
2024年、アメリカ陸軍の「Scarlet Dragon」シリーズ演習では、Mavenインテリジェンスシステムがすでに、20人のチームで2003年のイラク戦争当時には2000人を必要とした目標識別任務を完了できるようになっていた。目標の識別から攻撃までに要する時間も、当初は12時間以上かかっていたものが、1分以内にまで短縮された。

当時の目標は、1時間あたり1000の目標を処理することだった。しかし2026年2月になる頃には、このシステムはもはや目標を識別するだけのものではなく、意思決定そのものを生成する段階にまで進んでいた。

エージェント戦争の論理では、人間が状況を理解する前に、すでに勝敗は決している。


武器よりも価値がある「戦場の頭脳」

今回の攻撃で軍事専門家を震え上がらせたのは、兵器そのものの価値が相対的に下がったことである。

これまで軍事力を測る指標は比較的単純だった。巡航ミサイルは何発あるのか。F-35戦闘機は何機あるのか。しかし2026年2月28日以降、この基準は書き換えられた。

エージェント戦争の時代では、ハードウェアは完全にプラグイン化される。

どの武器を使うのか、どこへ飛ばすのかを決めるのは兵器ではない。それを統括する戦区エージェントである。
海外の報道によれば、今回の作戦ではイランの防空システムに対してAIによる大規模な攻撃が行われた。
米軍のAIは相手の識別アルゴリズムを分析し、数万個の完全に整合した偽目標を生成した。
それらはレーダー上では本物の戦闘機と区別がつかない。
飛行特性、赤外線信号、レーダー反射断面など、すべてが現実の航空機と同じ挙動を示す。

結果として、防空AIはどれが本物の攻撃なのか判断できなくなった。膨大な計算を続けるうちにシステムは限界に達し、崩壊した。つまり、AIに「考えすぎさせる」ことで停止させたのである。

もう一つの場面がある。イランの核施設を狙った精密攻撃において、イスラエル国防軍は一見すると旧式に見える自爆型ドローンの一群を使用した。しかし奇妙なことに、これらのドローンは空中で非常に高度な知能を示した。自ら任務を分担し、ある機体は敵を誘導し、ある機体は通信中継を担当し、また別の機体は急降下攻撃を担ったのである。

その背後にある仕組みは、AIエージェントがこれらのロボットの基礎コードをリアルタイムで書き換えているという点にある。

実際のところ、十分に強力な計算能力さえあれば、たとえ安価な民生用ドローンであっても、エージェントの統制のもとで、最新鋭のステルス戦闘機に匹敵する戦略的効果を発揮することができる。

では、どちらにより大きな価値があるのか。明らかに、その「頭脳」である。

このことは、なぜ現在、世界で最も不足している戦略資源が石油ではなく、前線でのリアルタイム推論を支えることのできる高性能計算カード――すなわち半導体大手が生産する先端チップになっているのか、その理由も説明している。

もし視点をさらに近づけ、テヘランの防御システムがどのようにして麻痺したのかを見てみると、そこにはさらに奇妙な構図が浮かび上がる。

従来の電子妨害は、強力な電波を浴びせて相手の信号を押しつぶす「出力による制圧」が基本だった。たとえるなら、大声で叫び続けて相手の声をかき消し、通信を聞き取れなくさせるようなものだ。
しかし今回、米軍が用いたのはまったく異なる手法だった。
外部メディアはこれを「物理層のプロンプト注入(physical-layer prompt injection)」と呼んでいる。

その仕組みは、大規模言語モデルをハッキングする攻撃とほとんど同じである。綿密に設計された入力データを与えることで、相手のAIシステムに幻覚を起こさせ、無限ループに陥らせ、最終的にはシステムそのものを崩壊させる
違いがあるとすれば、今回攻撃されたのがチャットボットではなく、国家の防空システムだったという点だけだ。

サイバーセキュリティ研究の分野によれば、この種の攻撃の論理は、従来の電子戦よりもはるかに恐ろしい。これまではレーダー基地を無力化するには、対レーダーミサイルを撃ち込むか、強力な電磁波を浴びせて電子部品を焼き切る必要があった。

しかし今は違う。相手に考えさせすぎればいい。考え続けて、システムが停止するまで。
Agent攻撃の重要な特徴の一つは、人間の介入をほとんど必要としないことだ。

従来のサイバー攻撃では、ハッカーがコンピューターの前に座り、一つ一つコマンドを打ち込みながら攻撃を進めていく必要があった。だがAgent攻撃では事情が違う。AIシステムが、情報収集から脆弱性の利用までのプロセスを自律的に実行する。

ネットワークの構造を分析し、業務の流れを理解し、どのようにして核心的な資産へ侵入すべきかを自ら判断する。

人間が逐一指示する必要はない。AI自身が考え、行動するからだ。

さらに恐ろしいのは、その速度である。従来の攻撃では、脆弱性が公開されてから実際の攻撃に利用されるまでには、ある程度の猶予期間が存在していた。その間に防御側がパッチを当て、修正することができた。
しかしAgent攻撃では、その時間的な余裕がほぼ消えてしまう。

脆弱性の情報が公開されると、AIはそれを読み取り、自らコードを書き、自らテストし、自ら攻撃手法を完成させる。その速度は、人間のチームとは比較にならない。この「脆弱性公開から実戦投入までの時間」は、わずか15分、あるいはそれ以下にまで圧縮される可能性があるという。

では、イランの事例では米軍のAgentは何をしたのだろうか。
おそらく、相手の防空システムのアルゴリズムの弱点を分析し、システムを崩壊させるための数万の目標データを生成した可能性がある。その結果、相手のAIの「頭の中」には、奇妙で不条理な光景が描き出された。

レーダー画面には突然、数万機の戦闘機が同時に現れる。しかも、それぞれの戦闘機は極めて精密に作られている。
飛行特性も、エンジンの尾焰が発する赤外線信号も、レーダー反射断面も、すべてが完璧に整合している。

現実の物理世界には存在しない。しかしデータの世界では、本物よりも本物らしい存在として振る舞う。
防空システムは、極めて短い時間の中で、この数万の目標をロックオンし、追跡し、弾道を計算しなければならない。その結果、計算資源は瞬時に使い果たされ、システムは無限ループの論理トラップに飲み込まれていく。

これはもはや単なる電波妨害ではない。アルゴリズムの深層に対する催眠術のような攻撃である。

テクノロジー誌『WIRED』はこの状況を次のように評している。

アルゴリズムの前では、かつて無敵とされた鋼鉄の軍勢さえ、まるで透明人間のように脆くなる。
あなたは防御しているつもりでいる。

しかし実際には、相手が用意したプロンプトの中を、ただぐるぐると回り続けているだけなのだ。


人間は「同意ボタン」を押すだけになるのか

米軍は今回の作戦でも、人間が最終的な発射権限を持っていると説明している。
しかし問題はそこにある。

AIが数分で、状況分析、目標識別、攻撃経路設計。結果評価まで完了してしまう場合、人間の決定権はどれほど意味を持つのだろうか。

そのとき人間は指揮官ではない。AIの判断を承認する確認担当者になっている可能性がある。
さらに重大なのは責任の問題である。

AIの意思決定がブラックボックス化している場合、誤爆が起きたとき誰が責任を負うのか。開発者なのか。軍なのか。それともアルゴリズムなのか。

この問題は単なる哲学的な議論ではない。
人類文明が持つ「命を奪う決定権」の最後の境界線に関わる問題だからである。


これからの戦争は「算力」で決まる

この戦争は、世界の政治ルールそのものを大きく書き換えた。

かつて地政学を語るとき、人々が注目していたのは地理的な位置だった。重要なのは海峡であり、航路であり、鉱物資源だった。しかし2026年、新たな概念が登場する。

「主権推理権(Sovereign Inference)」という言葉である。

なぜ米国とイスラエルは、この対抗の中で圧倒的な優位を保つことができたのか。それは単に兵器が先進的だからではない。彼らの国防AIが、世界でも最先端の超大規模計算クラスター上で稼働しているという事実が大きい。
戦争はすでに、むき出しの算力消耗戦へと変わった。
干渉信号を一度発するたびに、軌道を一度予測するたびに、そこでは膨大で高価な計算資源が消費されている。この現実は、もう一つの厳しい結論を導き出す。もし国家がギガワット級の電力供給を持たず、最先端の推論用AIチップの大規模なクラスターを保有していなければ、アルゴリズム戦争の前ではそもそも対戦相手になる資格すら持てないということだ。つまり、貧しい国家は戦争への参加権そのものを失う可能性がある。

さらに警戒すべきなのは、この算力による覇権が国家ではなく、巨大な民間企業へと集中しつつある点である。

たとえばSpaceXとxAIが統合され、宇宙空間に基盤を持つ算力主権を構築しようとしている動きは、その象徴とも言える。このような動きの中で、国際電気通信連合(ITU)などの国際機関が持つ規制の空白は、急速に露わになりつつある。インフラを支配する力は、かつてない速度で民間企業へと移りつつあり、その結果、大国間の技術競争や軍事競争は、まったく新しい次元へと押し上げられている。

戦争の参入障壁は、すでに主権国家でさえ容易には負担できない高さにまで引き上げられてしまった。

2026年2月28日に行われたこの攻撃は、本質的に言えば、高次元の文明が低次元の文明を一掃するような「次元降下の戦い」に近いものだった。そしてさらに恐ろしいのは、この算力の独占が、AI軍拡競争においてマタイ効果を生み出していることである。

すでに高度なAIを持つ国家は、より低いコストで、より効率的な作戦を遂行できる。一方で遅れた国家は、たとえ国家の総力を挙げてハードウェアを購入したとしても、アルゴリズムのレベルで次元の違う打撃を受けるだけに終わる。

その差は縮まるどころか、指数関数的に拡大している

未来の戦争では、もはや宣戦布告すら必要なくなるかもしれない。もし一つの国家の金融システム、エネルギー網、通信インフラのすべてがAIの調整によって運用されているならば、敵はただ一度、精密なアルゴリズム計算を実行するだけでよい。

それだけで、国家全体を数分以内に麻痺させることができる。

そして恐ろしいことに、誰がその攻撃を行ったのかすら分からないまま、すべてが終わってしまう可能性がある。


今日ミサイルを動かすAIは、明日あなたの仕事を動かす

多くの人は、テヘランで響いた砲火は自分たちから遠く離れた出来事であり、アルゴリズムによる戦争など当事国だけの問題だと感じるかもしれない。

しかし、忘れてはならない。戦場とは、常に技術が社会へと降りてくる最初の場所なのだ。

過去数十年の技術史を振り返れば、この法則は何度も証明されてきた。インターネットはもともと米国国防総省の高等研究計画局(ARPA)のプロジェクトとして始まったもので、核戦争が起きた場合でも科学者同士が遠隔通信できるようにするための仕組みだった。GPSもまた、当初は軍事用の衛星測位システムとして開発され、1983年になってようやく民間利用が解禁された。

今日、Agentはミサイルの運用を調整し、数分のうちに一つの施設の存亡を決定することができる。だが明日には、同じ論理が世界の物流を調整し、金融市場を動かし、さらにはあなた自身の仕事の配置を決める仕組みとして使われるかもしれない。

戦争における「プラグイン化」は、実は社会全体のプラグイン化の予行演習でもある。ひとたびAgentが指揮官の代わりに作戦判断を下せるようになれば、同じようにCEOの代わりに経営判断を行い、医師の代わりに診断を行い、弁護士の代わりに弁護を行うことも可能になる。そうなれば、人類が意思決定の主体として占めてきた地位は、少しずつ、しかし確実に崩れていくことになる。

さらに考えさせられるのは、作戦の前日に起きた出来事だ。トランプ政権は、6か月以内にClaudeの使用を段階的に停止するよう命じたばかりだった。そしてそのClaudeは、かつて「安全で倫理的、軍事利用を拒否するAI」として標榜されていた大規模モデルである。

しかし現実には、その倫理的な境界線はすでに越えられていた。Claudeは軍事攻撃の核心を支えるツールとして使われていたのである。

殺傷という行為がアルゴリズムのパラメータに単純化され、戦争の敷居がAIによって限りなく低くされていくとき、人類文明が守ってきた最後の境界線は、急速に技術の力によって突破されつつある。

『ウォール・ストリート・ジャーナル』は、この出来事を報じた記事の最後で、意味深い一文を残している。

2026年のこの空襲は、ある歴史の終わりではなく、
人類が地球の管理者であるという立場が終わる始まりなのかもしれない。

私たちは、自分たちよりも生存と競争に長けた存在を生み出してしまった。
そして今、人類はその存在と共に生きる方法を学ばなければならない。


2026年2月28日のテヘラン上空で起きたことは、単なる軍事作戦ではない。

それは、人類が自分より優れた意思決定機械を作り出した瞬間かもしれない。
そして今、人類はその存在とどう共存するのかを考えなければならない。
なぜなら、もはやAIは戦争の道具ではないからだ。

AIそのものが、すでに戦争なのだから。