世界の慈善団体やNGOが、AIで生成された偽りの貧困イメージを広報に使っている——そんな衝撃的な現実が明らかになった。ガーディアン紙によると、AIが生み出した極度の貧困、飢餓、性的暴力の被害者などを描く画像が、主要な医療系NGOのキャンペーンやストックフォトサイトで急速に拡散しているという。
記事によれば、スイスの団体フェアピクチャーで倫理的なビジュアルを推進するノア・アーノルド氏は、「あらゆる場所でAI画像が使われている」と警鐘を鳴らす。特に米国での支援予算削減が影響し、“安価で同意の必要がないAI画像”が現場で好まれる傾向が強まっているという。
アントワープ熱帯医学研究所の研究者アルセニー・アレニチェフ氏は、AIが再現する貧困のビジュアルを「貧困ポルノの第二段階=ポバティ・ポルノ2.0」と呼ぶ。彼が収集した100枚以上のAI生成画像には、典型的なステレオタイプが並ぶ。**泥水に浸かる子どもたち、涙を流すアフリカの少女、ひび割れた大地と空っぽの皿——**それらは現実の苦悩を模倣しながら、倫理的配慮を欠いた“演出された悲惨さ”に満ちている。
さらに問題なのは、これらの画像がAdobe StockやFreepikといったストックフォトサイトで販売されていることだ。「難民キャンプの子ども」「廃棄物に満ちた川で泳ぐアジアの子ども」「白人ボランティアがアフリカの黒人の子どもに医療相談をする」など、極めて人種化されたキャプション付きで、1枚あたり約60ポンドで販売されている。アレニチェフ氏は「最悪のステレオタイプを強化する」と批判する。
一方、FreepikのCEOホアキン・アベラ氏は「責任は利用者にある」と主張する。サイト側は多様性を意識した修正を試みているが、世界中の利用者が偏ったイメージを求める限り、「海を干そうとするようなもの」だと語る。
実際、AIイメージの使用は国連や大手慈善団体にも広がっている。2023年、英国のプラン・インターナショナルのオランダ支部は、児童婚反対キャンペーンにAI生成の少女の画像を使用。翌年には国連が内戦下の性的暴力をAIで再現した動画をYouTubeに投稿したが、ガーディアン紙の問い合わせ後に削除された。国連は「情報の信頼性にリスクを及ぼす」として問題を認めた。
アーノルド氏は、この現象の根底に「同意不要の便利さ」があると指摘する。現実の被写体に向き合う労力や倫理的責任を回避し、AIが“誰でもない誰か”を生み出してくれるからだ。しかし、その「誰でもない人々」が、現実の偏見や差別の象徴となっている。
コミュニケーションコンサルタントのケイト・カードル氏は「AIによる“貧困の演出”は恐ろしい。現実を歪め、他者の痛みを無機質に消費する文化を助長する」と憂える。彼女は、「貧困を経験する人々を尊厳ある形で伝えようという闘いが、いまや“存在しない人々”を相手にしている」と語る。
さらに懸念されるのは、これらの偏ったAI画像が再び学習データとして次世代AIに取り込まれる可能性だ。アレニチェフ氏は「偏見の循環が加速する」と警告する。AIが作り出した“偽りの世界”が、次第に“現実の基準”として定着していくのだ。
一方で、プラン・インターナショナルは2025年から「AIで子どもを描くことを避けるガイドライン」を採用したと説明する。過去のキャンペーンでは「実在の少女たちのプライバシーを守るためだった」と弁明するが、問題の本質は「誰を守り、誰を傷つけたのか」にある。
Adobeはコメントを拒否したが、同社のAI生成コンテンツは今も販売され続けている。AIが描く貧困は、見る者の“同情”を刺激しながら、同時に世界の格差を商品化する。それはもはや「支援」ではなく、「演出された悲劇の消費」だ。
私たちはいま、リアルとフェイクの境界が曖昧になる時代に生きている。写真が真実を語るという信頼は崩れ、AIが「貧困とはこういうものだ」と勝手に定義し始めた。こうした「AI貧困ポルノ」は、同情と支援を呼び込むどころか、現実の人間をさらに匿名化し、声を奪う危険なツールになりつつある。
この問題が突きつけるのは、テクノロジーの倫理ではなく、私たち自身が何を「見る」ことを望んでいるかという問いだ。悲しみや苦しみを「消費」する文化を止めるのは、AIではなく、人間の意識そのものである。


