アメリカ現地時間10月16日、OpenAIのCEOであるサム・アルトマンが再び世界の議論を呼び起こした。彼はX(旧Twitter)上で、「OpenAIは“選挙で選ばれた世界の道徳警察ではない”」と発言し、ChatGPTの成人向けコンテンツを一部解禁する方針を改めて示したのだ。この一言が、AI倫理と社会的責任の境界線を巡る論争の火種を再び燃え上がらせた。

ここ数カ月、OpenAIは規制当局の厳しい監視下に置かれている。特に、未成年ユーザーの安全確保心理的リスクの管理といったテーマは、AI企業全体にとって避けて通れない課題だ。OpenAIも例外ではなく、段階的に安全機能を強化してきた。だがアルトマンは、同社が新たに開発したツールにより「深刻な心理的健康リスクを管理できる段階に達した」と判断し、コンテンツ制限を“慎重に緩和する”決断を下したという。

彼がこの方向性を初めて示唆したのは2024年12月。当時から、「本人確認を完了した成人」に限り、より広範なコンテンツにアクセスできるようにする構想を明らかにしていた。今回の発言はその延長線上にあるが、彼のメッセージの根底には明確な哲学が流れている。「成人を成人として扱う」という原則だ。つまり、技術企業が過剰に利用者のモラルを規制すべきではないという立場である。一方で彼は、「他者を傷つける内容は厳しく禁止する」と釘を刺した。この線引きは、社会の映画レーティング制度(R指定)のような考え方に近い。

しかし、こうした“自由の拡張”の裏側で、矛盾を指摘する声も少なくない。わずか2カ月前、アルトマンはポッドキャストで「性的なAIアバター機能の導入を拒否したことを誇りに思う」と語っていたのだ。短期間での方針転換は、企業としての一貫性に疑問符を投げかけている。

しかも、OpenAIは現在、米連邦取引委員会(FTC)からの調査を受けている。焦点となっているのは、ChatGPTなどのAIが子どもや若年層に及ぼす心理的影響だ。さらに、ある家族が「ChatGPTが原因で未成年の息子が自殺した」として起こした訴訟も進行中で、企業への信頼が揺らいでいる。このような文脈の中での「成人向け解禁」は、あまりにもタイミングが悪いようにも見える。

OpenAIはこの批判を意識してか、9月末に保護者向けの管理機能年齢予測システムを導入。今後は自動的に18歳未満ユーザーに安全設定を適用する計画を発表した。また、10月15日には心理健康・感情・行動への影響を評価する専門家委員会(8名構成)の設立も明らかにしている。だが、その発表と同じ日にアルトマンが「制限緩和」を宣言したため、SNS上では「矛盾している」との指摘が殺到した。

アルトマン本人も、この反応が「想定をはるかに超えた」と認めている。実際、AI倫理団体や保守系の社会組織が次々に声明を出した。特に「全国反性搾取センター(NCOSE)」は、「AIの性的利用は心理的に深刻なリスクを伴う」と強く警鐘を鳴らしている。同センターのヘイリー・マクナマラ氏は、「AIとの“仮想的な親密関係”は、現実の孤独や依存を増幅させる恐れがある」とコメントした。

さらに火に油を注いだのが、投資家マーク・キューバンの発言だった。彼は「この方針はOpenAIへの信頼を失わせる」と警告し、「どの親も、AI企業の年齢認証システムを完全には信じないだろう。未成年が裏道を通ってアクセスできると感じた時点で、親は子どもにChatGPTを使わせなくなる」と断言した。彼の言葉は、多くの教育関係者や保護者層の共感を呼び、SNS上で大きな反響を生んでいる。

アルトマンの発言が示すものは、単なる「成人向けコンテンツの解禁」ではない。そこには、AIと社会の関係をどう設計するかという根源的な問いが横たわっている。AIが人間の表現をどこまで代替し、どこまで責任を負うのか。倫理と自由の狭間で、私たちはどのような線を引くべきなのか。OpenAIは、世界中の視線を浴びながら、いまその実験の中心に立っている。

この議論が示すのは、AIの進化がもはや技術の問題ではなく社会の選択の問題になっているという現実だ。AIは、私たちが自らの倫理観を映し出す鏡であり、その鏡にどんな姿が映るかは、最終的に私たち人間自身の手に委ねられている。アルトマンの「道徳警察にはならない」という言葉は、同時に「責任を社会に返す」という宣言でもあるのかもしれない。

彼の決断が英断となるのか、それとも失策として記録されるのか。今はまだ、誰にもわからない。ただひとつ確かなのは、AIの“自由”をどう扱うかという問題は、今後の時代を形づくる最大のテーマの一つになるということだ。OpenAIの一挙手一投足は、その未来を占う試金石となっている。