生成AI競争をリードする企業のリストを見れば、このテクノロジーにおける権力集中リスクと、ブロックチェーンの分散型データ管理モデルがいかにそれを軽減できるかがわかる。
AI開発を主導するビッグテック
現在AIに参入している企業の中で最も突出した5社は、お馴染みの顔ぶれだ。マイクロソフト、アルファベット、アマゾン、アップル、メタだ。
過去20年間、Web2.0を支配してきたインターネット・プラットフォーマーたちだ。この5社は、オープンAIやAnthropicのようなスタートアップへの巨額の出資や、自社プロジェクトを通じて、生成AIに数十億ドルを投資している。
5社が企業の時価総額ランキングですべてトップ7に入っている。5社の時価総額合計は10兆ドル弱(約1480兆円、1ドル148円換算)にのぼる。ちなみに時価総額6位のエヌビディアは、同社製GPUが生成AIの大規模言語モデル(LLM)開発用に5社によって積極的に購入されている。同社の時価総額を加えると、6社でS&P500の時価総額の4分の1以上を占める。
トップ7の中でこの6社以外の企業が、時価総額第3位のサウジアラビアの国営石油会社サウジアラムコというのは、不思議だが、納得できる話だ。ビッグテックの優位性をもたらすデータは、しばしば「新しい石油」と表現されている。
ビッグテック5社が生成AI開発競争で支配的なポジションにあるのは、彼らが我々について保有する膨大な量のデジタルデータ、つまりLLMのトレーニングに使われる我々のデータのおかげだ。
ビッグ5の検索エンジン、ソーシャルメディア、ブラウザ、OS、クラウドコンピューティングサービスは、我々のオンライン上の活動や、それによって明らかになる社会的関係について、膨大なデータを抽出している。我々は、彼らが生成AIを探り当てるための採石場だった。
現行モデルのリスク
インターネット経済に蔓延する監視資本主義のビジネスモデルによって、これらの企業は自社商品を使って、我々をターゲットにする新しいアルゴリズムを生み出し、絶え間ない刺激を与えて、我々が自社のビジネス上の利益につながる行動を取るよう密かに指示した。
時間をかけて彼らは、広告主やアプリ開発者、企業のIT部門が彼らのサービスにお金を払い続けるよう、そして我々が延々と彼らのプラットフォームに関わり続けるよう、一連の操作ツールを繰り返し微調整していった。
6年前、フェイスブックのショーン・パーカー社長は、これが「人間心理の脆弱性を突く」ことを目的とした意図的な計画であったとうっかり認めた。
前述の時価総額の数字は、このモデルがプラットフォームの株主の利益に見事に合致したものだったことを示している。しかし現在、このモデルが社会全体の利益から大きく逸脱していた動かぬ証拠がある。
2008年以降、青少年の自殺が約50%増加するなか、米医務総監は、ネット上のいじめやその他の有害行為にさらされることが若者の精神的健全性を脅かすと警告している。
その一方で、あらゆる問題が対立する利益集団の間の罵詈雑言の嵐を生み出している現在、事実を確認することは難しく、ひいては気候変動やガザ紛争のような緊急の問題を解決することも難しくなっている。
フランク・マコート(Frank McCourt)氏と私が近刊『Our Biggest Fight(我々の最大の戦い)』で論じているように、現在のインターネット経済は民主主義の健全性を著しく低下させている。
データ主導のアルゴリズムが我々の生活により大きな影響力を持つようになるAI時代に、一体なぜこのような破壊的な寡占モデルを持ち込むのだろうか? なぜAIインフラの中央集権的な企業オーナーに、人間としての本質に関わるすべての重要情報を絶対的に支配させるのか?
もちろん、各プラットフォームは、自分たちのデータを利用する権利を守るために徹底的に戦うだろう。しかし、我々はデータを我々のものとして認識すべき段階に達している。我々に危害を加える能力をすでに示している企業によって、重要な情報が独占され、秘密裏に操作されることはあまりにも危険だ。
分散化の必要性
データやコンテンツをネットワークの中心ではなく、末端(=ユーザー側)で管理するようなモデルをどのように実現するかは、ここでは議論しない。
ただ、データ管理モデルの変化は、いずれにせよ近づいている。ニューヨーク・タイムズ紙が、マイクロソフトが支援するオープンAIに新聞記事を取り込まれたとして提訴したことで、デジタルコンテンツを管理する多くの企業が、AI企業への新たな素材提供を差し控えるようになることが予想される。
そうなれば、学習データは所有者の同意がある場合にのみ使用されるという、より分散化されたシステム上で実行されるAIモデルへの道が開ける。
そのためには、ブロックチェーンが可能にするような分散型の追跡アプローチが必要だ。同意した所有者に、データやコンテンツが説明通りに使用されていることを保証し、重要な情報がAI主導の「ディープフェイク」の対象にならないようにするためだ。「正しいことをする」というビッグテックの約束ではなく、検閲に強いオープンソースのプロトコルを人々が信頼する検証システムが必要だ。
先日、ダボスで開催された「世界経済フォーラム(ダボス会議)」で、暗号資産(仮想通貨)関係者(そのほとんどは、ダボス会議の警備の内側ではなく、外側で活動していた)の間で最も話題になったトピックの1つが、AIとブロックチェーンの接点だったことも不思議ではない。
彼らは、スターリング・ラボ(Starling Lab)のジョナサン・ドータン(Jonathan Dotan)氏が発表したヘデラ・ハッシュグラフ(Hedera Hashgraph)で証明されたデータ検証システムや、エリック・ヴォーヒーズ(Erik Voorhees)氏とデイビッド・ジョンストン(David Johnston)氏が率いるMorpheusAIと呼ばれる分散型演算プロジェクトなどの新しい開発で盛り上がっていた。
だが議論は、ダボス会議期間中、他のAIプログラムからはほとんど排除されていた。ダボス会議では、多くのグローバル企業が人類をAIから救うためのソリューションをアピールした。例えば、タタ・コンサルタンシー・サービシズ(Tata Consultancy Services)は「The Future is AI. The Future is Humanity.」という巨大な看板を掲げた。
これは残念なことだ。メインストリームがブロックチェーンコミュニティの分散化議論に耳を傾けることは、今や緊急の課題だ。
|翻訳・編集:山口晶子、増田隆幸
|画像:Growtika/Unsplash
|原文:At Davos, Crypto Pushes Case for Decentralized AI