2026年3月7日、OpenAIの内部から流れた一つのニュースが、静かな波紋のようにテック業界を揺らした。OpenAIのハードウェアおよびロボティクス部門を率いていたエンジニア、Caitlin Kalinowskiが辞職したという知らせである。だがこの出来事は、単なる幹部の退職として片づけられる種類のものではなかった。むしろそれは、AI産業が今まさに直面している倫理的な断層を、静かに、しかし鋭く可視化した象徴的な出来事だったと言える。
Kalinowskiは2024年11月にOpenAIへ加わり、AIの身体とも言えるハードウェアとロボット技術を担当していた。彼女の役割は、AIの頭脳を現実世界へと接続する重要な位置にあった。だがその彼女が、わずか一年半にも満たない期間で職を去る決断を下した。その理由は驚くほど率直だった。OpenAIが米国国防総省と締結した契約が、将来的に国内監視や自律兵器の開発へとつながる可能性に対し、自らが関与し続けることを受け入れられなかったというのである。
この辞任を理解するには、数日前に起きた出来事へと時間を巻き戻す必要がある。2026年2月28日、OpenAIのCEOであるSam Altmanは、米国国防総省との間で新たな契約を締結したことを発表した。これにより、ペンタゴンはOpenAIのAIモデルを自らの機密ネットワーク内で利用することが可能になるという。AI企業が国家安全保障の領域へ踏み込むこと自体は、近年では珍しい話ではない。しかしこの発表が特別な議論を呼んだのは、その直前に競合企業Anthropicが似た契約を拒否していたからだった。
Anthropicは国防総省から提示された協力要請に対し、より厳格な倫理的ガードレールを契約に盛り込むことを求めた。しかしその要求は受け入れられず、結果として同社は契約を断る道を選んだ。この決定は政治的にも波紋を広げ、当時の国防長官Pete HegsethはSNS上でAnthropicを名指しで批判し、その態度を「傲慢と裏切りの教科書」とまで表現した。そして最終的に、その契約はOpenAIへと渡ることになる。
発表直後、世論の反応は予想以上に激しかった。AIの軍事利用への懸念は瞬く間に広がり、SNSでは**「#QuitGPT」**というハッシュタグを掲げたデジタルボイコット運動が広がった。発表当日、ChatGPTのアンインストール数は前日比で約295%も増加し、三日間で250万人以上がこの抗議運動に参加したとされる。アプリ市場にもその影響は表れ、AnthropicのAIサービスClaudeは米国での一日あたりダウンロード数でChatGPTを上回り、Apple App Storeの無料アプリランキングでも首位に躍り出た。
こうした反発の中で、Sam Altmanは3月3日に声明を出し、契約の発表が「拙速で機会主義的に見えた」ことを認めた。そして契約文言を修正し、**「AIシステムは米国市民に対する国内監視に意図的に使用されるべきではない」**という条項を明確化すると発表した。だがこの説明は、批判を完全に鎮めるものではなかった。電子フロンティア財団の弁護士は、この「意図的に」という言葉こそが問題だと指摘した。なぜなら、情報機関や法執行機関はしばしば「偶然取得されたデータ」や「商業的に購入された情報」を利用することで、より厳しいプライバシー規制を回避してきた歴史があるからである。
このような議論が渦巻く中で、Kalinowskiの辞任は起きた。
彼女が見ていた世界は、一般ユーザーが想像するよりもはるかに具体的だった。多くの人が議論していたのは「AIモデルの使用」だったが、彼女のチームが取り組んでいたのはロボット工学、つまりAIに身体を与える仕事だった。ハードウェアとロボティクスの開発とは、AIに手足や目を与える行為に等しい。もしAIモデルが軍事ネットワークへ組み込まれ、さらに具身AIとしての応用が進めば、その技術は単なる情報処理を超え、現実世界で行動する存在となる可能性がある。
自律兵器研究者たちは以前から、この未来について警鐘を鳴らしてきた。現在の米国国防総省の政策では、自律兵器が武力を行使する前に必ず人間の承認を必要とするとは定められていない。つまり技術的には、AIが意思決定の一部を担う兵器システムにOpenAIの技術が組み込まれる可能性を完全に排除するものではないのである。
ジョージタウン大学で政府調達法を教えるJessica Tillipmanは、修正された契約について「Anthropicが求めたような政府利用を拒否する自由をOpenAIに与えるものではない」と分析している。契約はただ、既存の法律と政策に違反しない範囲での利用を認めるだけであり、その既存制度自体が自律兵器の規制において大きな空白を抱えている。オックスフォード大学のガバナンス研究者もまた、AIによる国内監視や自律兵器に関する構造的な統治の欠陥を、この契約が補う可能性は低いと指摘している。
Kalinowskiの辞任は、まさにこの現実に対する個人的な回答だった。
しかも彼女は、OpenAIを去った最初の人物ではない。報告によれば、OpenAIの倫理チームやAI安全チームでは離職率が**約37%**に達しており、その多くが「会社の価値観との不一致」や「AIの軍事利用への懸念」を理由としている。研究者Aidan McLaughlinも社内で、「個人的にはこの契約は正しい取引だとは思えない」と述べていた。
この離職の流れは、OpenAIが急速に事業を拡大している時期と重なっている。国防契約の議論の前後には、AWSとの既存380億ドルの契約がさらに1000億ドル規模へ拡張される計画が発表され、将来的には2030年までに総収益2800億ドルを目指すとされている。企業としての成長は加速する一方で、安全や倫理に関わるチームから人材が流出するという構図は、現在のOpenAIの状況を象徴している。
企業の価値観は、声明文よりも人材の流れに現れる。どの人材が残り、どの人材が去るのか。その選別こそが組織の未来を形作るからだ。AIの利用方法を最も深く懸念していた人々が離れていくなら、組織の重心がどこへ向かうのかは想像に難くない。
一方で、Anthropicはまったく異なる選択をした。政府契約を拒否し、その代償として政治的な批判や排除を受けた。しかし同時に、ユーザーからの信頼という別の資産を得た。Claudeのダウンロード数が急増した事実は、「原則を守る企業」への支持が確かに存在することを示している。
ただし、どちらの選択も完全ではない。政府との協力を拒めば、政策形成の場から排除される可能性がある。逆に協力を受け入れれば、自社の技術がどのように使われるか完全には制御できない。
Kalinowskiは、この二択とは別の第三の答えを選んだ。それは会社を離れるという決断だった。彼女は長い声明を発表したわけでも、誰かを強く批判したわけでもない。ただ行動によって、自分が引くべき倫理の線を示したのである。
AIと軍事の関係は、これからのテクノロジー産業が避けて通れないテーマだ。国防総省は莫大な予算と明確な需要を持ち、AI企業にとっても巨大な市場である。OpenAI、Anthropic、そして数多くのAI企業は、遅かれ早かれこの問いに向き合うことになる。
AIは誰のために存在するのか。
そして、その知能に身体が与えられたとき、人間はどこまで責任を負うべきなのか。
Kalinowskiの辞任は、まだ始まったばかりのこの問いを、静かに、しかし強く世界へ突きつけた出来事だった。彼女が去ったあと、残されたのは一つの問いである。
あなたが作った知能が、誰かの未来を決めるとき、その責任をどこまで引き受ける覚悟があるのか。

