ざっくり解説 時々深掘り

2024年の生成AIの現在地と課題は何か OpenAIとGoogleが相次いで発表会

Xで投稿をシェア

OpenAIとGoogleが次々と生成AI関連の新技術を発表した。詳しい人たちは既にいろいろな議論を始めている。だが、それでも「何がおきているのかさっぱりわからない」という人もいるかもしれない。ざっくり一言だけで済ませると「可能性か明日からの技術革新か」という方向性の違いがあった。さらにOpenAIはこれまで未踏の地だった「感情」に一歩足を踏み入れた。この二つだけを抑えておけばあとは好きな情報を探してくればいいと思う。

OpenAIは「生成AIの可能性」を提示・Googleは「明日からできること」にフォーカス

最も大きな違いはスタンスだった。OpenAIの技術は確かにすごいのだがOpenAIのサイトに行っても「ここでこのアプリをダウンロードしてください」という案内はない。ChatGPTのデモサイトでも無料版でGPT-4oが使えるが使っているうちに「無料枠が終わった」としてGTP3.5に戻ってしまう。だが、OpenAIのサービスは感情という新しい領域に足を踏み入れ「まるでSF映画のような」新しい体験を提供している。

一方のGoogleはAndroid携帯・Google Chrome・Google Cloudなどに機能が追加されてゆく仕組みになっている。つまりこれまで使っていたものをそのまま使い続けても新しい機能を利用できるようになる。またリアルタイム検索制に優れている。これまでもGoogle検索はニュースに対応しており即時情報検索に大きな強みがある。

希望的観測も含めるとGoogleは広告収入に依存しているため既存のサイトへのトラフィックをあまり抑えたくないのではないかと思う。Google検索で全てが完結してしまうとサイトへの流入は少なくなる。当然広告収入が得られなくなった企業や個人はブログやニュース記事の提供をやめてしまうことになるだろう。

Follow on LinkedIn

コンテンツのリクエストや誤字脱字の報告はこちらまで

|サイトトップ| |国内政治| |国際| |経済|






サイトオーナーにとっては恩恵も(検索ボトルネックの解消)

検索ボトルネックも解消される。これまで「このレコードプレイヤーを修理したい」と考えても「一体どこを直せばいいかわからない」から検索すらできないという人もいたはずだ。Googleはどう検索すればいいかも教えてくれるので、検索機会は増えることが予想される。つまりこれまでのコンテンツオーナーにとっては恩恵が大きいはずだ。ただしOpenAIは広告には参入しないようなので場合によっては「コンテンツを吸い取られて終わり」になってしまう可能性も残っている。

なくなりそうな職業も

今回の生成AIのデモを見ていると打撃を受けそうな職業も見えてきた。なんらかのアドバイスを行うコンサルタントの人たち・プランナー・教師(プログラミングや家庭教師など)などを生成AIがこなしてしまうデモが次から次へと発表されていた。

たとえば「1週間のメニューを立ててくれ」と命令すると1週間分のメニューが表示される。ここで「検索結果のここが気に入らない」と命ずると嫌がることもなく即座にメニューが入れ替わる。何度繰り返しても追加料金はかからない。

また自分が書いたコードを見せると「これは何をやろうとしていてどこが間違っているか」を教えてくれる。コンピュータの構成を見てネットワークにキャッシュサーバーを入れるとスピードアップが図れるかもしれないなどというアドバイスも得られる。プログラミング教師に同じことを聞き返すとうんざりした顔をされるが生成AIは決して怒らない。

さらにコンタクトセンターやコールセンターも縮小するかもしれない。ナレッジを蓄えたAIが全て教えてくれるからだ。彼らはクレーマーのハラスメントにも対応できる。繰り返し聞いても疲れないのだからハラスメント顧客の方が先に疲れてしまうだろう。あらかじめ知識をフィードしておいてやれば「お調べします」と3分も5分も待たされるということはなくなる。

ただし「検索ボトルネックの解消」で述べたようにこうした知見は元々誰かが書いたものである。つまり、GPTプラットフォームなりGoogleのブラウザーなりで完結してしまうと「知識を書いている人」がいなくなるという問題がある。またコンタクトセンターも知識を教えるトレーナーが必要だ。つまりフィードの問題は残る。

OpenAIで人々を驚かせた「感情」

今回OpenAIのプレゼンテーションは生成AIの感情読み取り技術と感情表現技術が披露された。このためOpenAIのプレゼンを見て「20世紀の人たちが想像していた21世紀がやってきた」という感想を述べている人がいた。

たとえば「この服装は面接に適切か」とか「パーティージョークを準備したんだがこれはイケてるかな?」という質問に対してネガティブなレスポンスを返すときにためらいがちな声の表情が作られる。これがあたかも人と会話しているような印象を与える。これがかつてのSF映画に出てきた人間のパートナーになり得るAIというイメージを生み出している。ついに生成AIは非合理的な人間の側面に対応をし始めたのだ。

おそらく日本人は満足しないだろうなと感じる点も

一方で気になったこともあった。Googleのプレゼンテーションで特に顕著だったが、Googleは検索を通じて人々を理解しているという点だった。つまり人には何か解決したい問題がありそのソリューションを探しているという人間モデルに依存している。探しているものが漠然としていたり、探し方がわからない場合にはこれで解決する。

だが日本人には「みんなが行っているところに行きたい、みんなが知っていることを知っておきたい、みんながどう思っているかを知り社会から浮かないようにしたい」という気持ちがある。

たとえば「みんなが読んでいるニュースを読みたい」人が多いためYahoo!ニュースのようなランキング形式のニュースサイトが好まれる。テレビのワイドショーでも起きていることよりも「コメンテータが何をいっているか」の方が重要だ。また、Xのトレンドワードも頼りにされる。アメリカ人の大人は「他人がどう思っているか」はあまり気にしないのでこの「社会性探索行動」のニーズはすっぽりと抜け落ちている。

OpenAIが示したように非合理的な要素(つまり感情)は生成AIによってカバーされようとしている。ここから4象限を作ると当然社会・合理という象限が生まれる。これはおそらく「合意形成」だろう。

  1. 個人・合理(検索)
  2. 個人・非合理(感情表現)
  3. 社会・合理(合意形成)
  4. 社会・非合理(社会性探索行動)

2024年の生成AIはここまで進歩し次の課題を生み出した

ここから今回のざっくりしたまとめは次のようになる。

第一に検索分野は格段の進化を遂げた。これまで何を質問していいかわからないから質問ができないという人もコンピュータの助けで検索ができるようになる。次に感情表現ができるようになったことで「トレーニングやサポート」といった課題にも対応できるようになった。検索需要は確実に増えるのだからこれまで光が当たらなかったコンテンツにも新しい需要が生まれるはずだ。

ところが「みんなと意見を合わせておきたい」といった同調行動には対応しない。あくまでも使い手が「自分が何をやりたいか」を知っていることが重要なモデルなのだ。個人の意見を持たず周りに合わせておきたいという人にとってはあまり魅力的なサービスにはならないだろう。この分野では日本の企業にもまだチャンスが残っている。

もう一つの問題が「合意形成」である。人々のやりたいことが明確になり情報発信も容易になりつつある。だが、「一体それをどうやってまとめてゆくのだろう」という問題が出てくる。アメリカ政治は既にこうした問題に直面していることからおそらく日本にも合意形成の問題が出てくるものと思われる。Xの政治議論の混乱などを見ていると既に起きているといって良いのかもしれない。

さらに誰が生成AIをトレーニングするのかという問題がある。仮想従業員を作って従業員の知識を集めておけばその知識をみんなのものにできるというプレゼンテーションがあった。AI TeammateというGoogleの技術だ。

確かに良さそうな話なのだが次のような悪夢は容易に想定できる。

  1. 従業員たちはこぞってAI Teammateに知識を教えた。AI Teammateは出来の悪いインターンのように口答えはしないし一度覚えたことを忘れることもない。するとある日突然AI Teammateがマネージャーに昇進し従業員の解雇を宣言する。従業員たちはAIへのアクセスを失い技能を盗まれた上で解雇されてしまった。最初から経営者はそれを狙っていたのだ。
  2. 日本の技術者が大量に雇われAI Teammateに知識を教えた。するとある日突然AIが中国語を話しはじめ研究者を全て解雇すると宣言した。中国企業の目的は日本人から技術を盗むことだった。日本人技術者が20年かけて覚えた技術は半年で盗まれた。
  3. これを見越した知的労働者たちはAI Teammateにいい加減な情報やあからさまな嘘を教えるようになった。だが経営者たちにはそれが見抜けない。本当の知識は従業員だけが持っており、その評価ができるのも従業員だけなのだ。
  4. 世界各地で知的従業員は解雇された。AI Teammateは当初の計画通りに新興国で安く雇った従業員に対して謎の指示を出すようになり会社は3日で操業停止に追い込まれた。従業んたちは示し合わせていた通りリモートで新しい会社を立ち上げその市場を回収した。

優良なコンテンツをどう確保しどう評価するか

ここまでざっくりとまとめてきたのだが次の課題が2つ浮かび上がってきたことがわかる。一つは「さまざまな意見が出てきたときにどう集約してゆくか」という課題だ。4象限でいう「社会・合理」の問題が解決していない。現在の日本の政治学科ではおそらく全く扱われていない課題だろう。前回グレン・ワイルについてご紹介したが、アメリカでは既に議論になっている。合意形成のために「数学的重みづけ」がある評価システムが必要であるという議論だ。

次に「個人・合理」の分野にも優秀なコンテンツをどう確保しどう評価するかという問題が出てくる。たとえばOpenAIがコンテンツ開発市場を荒らしてしまったとする。おそらく優良なコンテンツ制作者は徹底してしまい詐欺まがいの文章だけが残ることになる。

つまり有能なコンテンツ制作者を残す必要があるのだが、そもそもその有能さをどう評価するかという問題が出てくる。グレン・ワイルはコンテンツ制作を労働化して対価を支払うべきといっている。これを「データ労働」という。データ労働にはコンテンツ制作だけではなくその評価も含まれている。

たとえば民主主義を「AIのトレーニング」と同等なものと考えると合理的な民主主義の合意形成と集約に関しても「優秀な有権者に対価を支払うべきだ」ということになる。アメリカでは中流層がポピュリズム化しその意思決定に大きな混乱が生じている。これは中流層に対する労働分配が減っているからである。つまり、これまで民主主義は経済政策という形で「穏健な民主主義への対価」を支払ってきたがこれが滞ったために民主主義が危機を迎えているのだという見方をすることができる。

同じことは当然生成AIに対しても言える。健全なコンテンツ制作と評価の仕組みを維持するためには「分配」が必要だが、今のところ生成AI提供企業はこれに対して答えを提示していない。

日本語の政局報道ばかり見ている人は驚いたのではないだろうか

日本語で政治報道を見ていると「日本の労働生産性を上げてゆかなければならない」という課題は提示されているものの「では具体的にどうすればいいのか?」というソリューションは全く提案されてこない。そもそもその意欲もなさそうだ。

だがアメリカの生成AIの現場を見るとかなりの速度でこれまでの仕事が消え「データ労働」のような新しい仕事の必要性が求められているということがわかる。

こうした情報は主に英語で流れてくる。だから、日本語で情報を取っている人のところには流れてこない。技術の進展によって英語の記事を日本語に翻訳することは容易になったのだが、そもそも目に触れない情報を翻訳することはできないのである。

コンテンツのリクエストや誤字脱字の報告はこちらまで