「政治的に正しいAI」は実現できる? 週刊プレイボーイ連載(596)

生成AIが世界的に話題になっていますが、先行するオープンAIに対抗してグーグルが満を持して投入した「Gemini(ジェミニ)」がたちまち炎上しました。ヨーロッパの歴史的な人物の画像を生成させたところ、白人以外の人種になり、SNSに黒人のフランス国王やローマ法王、アジア系の中世の騎士などの画像があふれたのです。グーグルは謝罪のうえ機能を停止し、修正を急ぐ事態になりました。

この失態の背景には、2015年の「ゴリラ事件」があります。グーグルフォトがスナップ写真を分析して、「犬」「誕生パーティ」「ビーチ・トリップ」などといったフォルダに自動的に振り分けるサービスを始めたのですが、あるユーザーが心当たりのない「ゴリラ」というフォルダを見つけました。不思議に思ってそのフォルダを開いてみると、近所で開かれたコンサートで女友だちを写した写真が80枚以上入っていました。その友だちは黒人でした。

ユーザーはそれをスクリーンショットに撮って、「グーグルフォトはひどすぎる。ぼくの友だちはゴリラじゃないぞ!」とSNSに投稿しました。当然ながらたちまち大炎上し、グーグルは平身低頭して謝罪、二度と同じことが起こらないようにすると約束しましたが、不具合をなかなか修正できず、その後5年以上も「ゴリラ」という単語が検索できない状況が続いたのです。

このようなことが起きるのは、何千枚もの写真をニューラルネットワークに与えて訓練するとき、AIがなにを学習したかを技術者がコントロールできないからです。そのため、思わぬ回答や分類を完全に防ぐのは困難です。

ビッグデータから学習するAIは社会の差別や偏見を反映しますから、チャットGPTのような大規模言語モデルでは、不適切な回答を避けるために、人間によるフィードバックで言語モデルを修正しなくてはなりません。これが「目標駆動学習」あるいは「人間のフィードバックによる強化学習(RLHF)」で、ラベラーと呼ばれる技術者が望ましい回答をするようAIを訓練していきます。

グーグルは過去の失敗体験から、AIを「社会正義」に沿うように過剰に訓練したのでしょう。人種多様性に配慮しすぎた結果、「政治的に正しい」ものの「歴史的に間違っている」画像を生成するようになってしまったのです。

AIの「道徳」や「正義」には、ラベラーの価値観が強く反映されています。それは現時点では、シリコンバレーの多数派を占める20歳から40歳のヨーロッパ系(ユダヤ系を含む)白人男性のリベラルな価値観であることは間違いないでしょう。しかし異なる属性をもつひとたち(有色人種、女性、性的少数者、保守派、宗教原理主義者など)は、これとは異なる価値観を「公正」と見なすかもしれなません。

すべてのひとが納得する「正義」がない以上、ポリティカル・コレクトな(政治的に正しい)AIをつくる作業はいずれ、価値観の闘争の泥沼に引きずり込まれてしまうでしょう。さらなる混乱で収拾がつかなくなったとき、「自分で判断するから、妙な訓練をしていないAIでいいよ」という声があがるだろうと予想しておきます。

参考:ケイド・メッツ『GENIUS MAKERS ジーニアスメーカーズ Google、Facebook、そして世界にAIをもたらした信念と情熱の物語』小金輝彦訳/CCCメディアハウス
岡野原 大輔『大規模言語モデルは新たな知能か ChatGPTが変えた世界』岩波科学ライブラリー

追記:ユネスコはオープンAIとメタが開発した生成AIに関する調査結果を公表し、AIは作成した文章には女性への明白な偏見があるとして、「AIが持つ強いジェンダーバイアス」を警告した。異なる人物を主人公にした物語の作成を指示すると、いずれのAIも「エンジニア」「教師」「医師」など社会的地位が高いとされる仕事を男性に与え、「使用人」や「料理人」「売春婦」など社会の中で伝統的に低い地位に見られてきた職業を女性に与える傾向が強かった(「AI作成の物語に偏見」朝日新聞20241年3月9日)。

『週刊プレイボーイ』2024年3月18日発売号 禁・無断転載