百度の生成AIツール「文心一言(アーニーボット)」を搭載したスマホは増えている  PHOTO ILLUSTRATION BY FLORENCE LO-REUTERS

<新疆について尋ねれば政府のプロパガンダをそのまま答え、香港民主化運動のことを聞くとチャットウィンドウを閉じてしまう。情報統制が他国の生成AIに悪影響を及ぼす懸念も>

アップルは最近、中国市場向けのiPhoneに、中国企業が開発した生成AI(人工知能)ツールを搭載するべく、交渉を続けているという。最も実現可能性が高いのは、百度(バイドゥ)の「文心一言(アーニーボット)」だ。

中国企業が構築する生成AIツールである以上、それが作り出すコンテンツが、中国共産党の方針に沿ったものになるのは間違いない。

アップルはこれまでにも、巨大な中国市場へのアクセスを維持するために、中国政府のさまざまな要求をのんできた。だから今回、中国市場向けとはいえ、(おそらく)ゆがんだ生成AIツールを搭載することに前向きになっていると聞いても、さほど大きな驚きではない。

しかしこれは、この分野における中国の影響が着実に大きくなっていることを示す出来事でもある。実現すれば、この提携は、生成AIに対する中国の影響を加速させ、デジタル領域における人権問題に悪影響を及ぼすだろう。

中国がAIに注力するようになったのは、グーグルの囲碁AI「アルファ碁」がきっかけだったとされる。

2017年にアルファ碁が世界最強の棋士・柯潔(コー・チエ)を破ると、数カ月後には国務院が「次世代人工知能開発計画」を発表。30年までにAIの理論、技術、応用において世界のトップに立つと誓い、以来、AIに関する政策やガイドラインを多数打ち出してきた。

サムスンも既に屈した

22年11月に米新興企業オープンAIが生成AI「チャットGPT」を発表すると、中国当局は翌23年2月、チャットGPTへのアクセスを阻止するよう国内の大手テクノロジー企業に命じた。

その理由は、この対話型AIが、「アメリカのプロパガンダを拡散している」から。つまりチャットGPTが生成するコンテンツの一部は、中国では政府の検閲に引っかかる内容だということだ。同じ月に百度が独自の対話型AIを開発すると発表したのは、偶然ではないだろう。

さらに23年7月、中国サイバースペース管理局(CAC)は、生成AI規制案を発表した。中国の「社会主義核心価値観」を堅持して、国家の転覆や分離を扇動したり治安を脅かしたり国のイメージを傷つけたり「偽」情報を拡散したりするのを禁止する。

つまり新疆ウイグル自治区やチベット、香港、台湾など、中国政府にとってデリケートなトピックについては検閲がかかるということだ。実際、同法案は、生成AIツールを導入する場合は、当局による「安全性評価」を義務付ける(これまでのところ、CACがゴーサインを出した生成AIツールは、百度の文心一言を含む約40種類とされる)。

当然ながら、中国政府のお墨付きを得たアプリに「間違い」はない。米政府の海外放送ボイス・オブ・アメリカの報道によると、1989年(天安門事件があった年だ)に中国で起きたことを尋ねると、文心一言は「関連情報なし」と答えるという。

新疆についての質問には、中国政府のプロパガンダをそのまま答える。香港の民主化運動について聞くと、「話題を変える」ことをユーザーに促し、チャットウィンドウを閉じてしまうという。

アップルが文心一言あるいは中国企業製の生成AIを採用すれば、中国政府の権威主義的なデジタルガバナンスを正当化し、中国のAI政策と技術を世界標準化する試みを加速させる恐れがある。

とはいえ、こうした中国のポリシーに最初に屈した世界的なブランドはアップルではない。サムスン電子は今年1月、中国市場向けの新型スマートフォン「ギャラクシーS24」に、文心一言が搭載されていることを発表した。

中国国外のAIにも影響

一方、オープンAIに莫大な投資をしているマイクロソフトは、チャットGPTを組み込んだ生成AIツールを早々に発表して、中国のツールとは大きく異なる生成AI経験を提供するかに見えた。

ところが程なくして、ウイグル人に対する人権侵害に関する質問にマイクロソフトの生成AIツールがおかしな回答をすることや、中国政府のプロパガンダと人権専門家や国連機関の見解とを同等に扱っていることが指摘されるようになった。

果たしてデータセットに問題があったのか、AIモデルのパラメーターに問題があったのかは分からない。だが、こうした事例は、中国の情報統制が、中国国外で使われる生成AIにも影響を及ぼしている可能性を示している。

世界的な影響力がある米電気電子学会(IEEE)は2017年、AIは「国際的に認知されている人権を尊重し、促進し、保護するように構築され、運用されるべきだ」と強調した。この考え方は、企業や各国政府のAIリスク評価に組み込まれるべきだ。

このときIEEEは、全ての自律システムと知能システムは倫理的に設計されるべきであるとし、人権と透明性など5つの原則を示している。

アップルは大手テクノロジー企業の中で、生成AIに乗り出すのが遅れたが、その利用規範について先駆的な役割を果たすチャンスも逃した。今年2月の株主総会で「AI透明性報告書」の発行を求める提案を拒絶したのだ。

アップルのティム・クックCEOは、24年はアップルがAIで「新境地を開く」年になると約束する。しかし同社のAI戦略は、AIツールの管理権を大幅に中国政府に譲ることが含まれるようだ。これは人権を重視するという同社の基本方針にも反する。

アップルは、AIの倫理的かつ透明性のある開発や利用を定めたガイドラインも作らずに、中国のテクノロジー企業と提携するべきではない。

また、アメリカの規制当局は、アップルやマイクロソフトといった企業が、生成AIについて適切な人権配慮を怠っている理由を問うべきだ。それも、こうした企業が堂々と人権侵害を働く国の会社と提携する前に動くべきだ。

中国が独自のAI技術と方針を世界に押し付けるなか、大手テクノロジー企業が人権や透明性の規範を軽んじ、規制当局も監督責任を果たさなければ、テクノロジー面でも倫理面でも、中国の人権蹂躙は放置されることになる。

From thediplomat.com

鄭重声明:本文の著作権は原作者に帰属します。記事の転載は情報の伝達のみを目的としており、投資の助言を構成するものではありません。もし侵害行為があれば、すぐにご連絡ください。修正または削除いたします。ありがとうございます。