テクノロジー 最前線! AIの世界

AIは「汎用技術」になりうるのか-大きなAIと小さなAIの考え方 長谷佳明

iPhone 16は生成AIサービス「アップルインテリジェンス」に対応(ニューヨークのアップル5番街店で新製品の店頭販売に臨むティム・クックCEO<中央>)=2024年9月20日 Bloomberg
iPhone 16は生成AIサービス「アップルインテリジェンス」に対応(ニューヨークのアップル5番街店で新製品の店頭販売に臨むティム・クックCEO<中央>)=2024年9月20日 Bloomberg

 世の中には、社会の隅々にまで普及し生活を一変させる技術がある。歴史をさかのぼれば、蒸気機関、鉄道、電力、コンピューター、そして近年ではインターネットなどである。このような技術は「汎用技術」と呼ばれ、経済発展や産業構造の変化にも多大な影響を与えてきた。鉄道の普及は移動コストを劇的に下げ、モノの輸送を容易にして経済発展をもたらした。それとともに、都市への人口流入を加速し、一極集中の要因をつくるなど社会にも大きな変化をもたらした。

 前回触れたように、生成AIには普及に向けた「壁」の問題があるものの、次の「汎用技術」の候補であることは誰しも認めるところだろう。

 汎用技術は、英語で「General-purpose technologies(GPTs)」という。AIと汎用技術の関係は、オープンAIが2023年3月に公開した論文にも示されている。そのタイトルは「GPTs(Generative Pre-trained Transformer) are GPTs(General-purpose technologies): An Early Look at the Labor Market Impact Potential of Large Language Models」(「事前学習済み文章生成モデル」は「汎用技術」: 大規模言語モデルの労働市場への影響と可能性をいち早く見る)だ。この中で、初期の見解ながらAIが生産性を向上させることを示し、汎用技術となる可能性に言及している。果たして、AIは「真の汎用技術」になれるのだろうか。

知識詰め込み型から思考力型へ

 人間並みを目指すともいわれる、より高度なAIの最先端は今どうなっているのか。24年9月、オープンAIはGPT-4シリーズに続く新型のAIモデル「o1」のプレビュー版を公開した。

 GPT-4までは、ありとあらゆる大量のデータを学習した、いわば「知識の詰め込み型」のモデルだったが、「o1」は、問題の本質を捉え、どのようなステップを踏めば求める解にたどり着けるのか徹底的に学習した「思考力型」のモデルである。大規模言語モデルに欠けているといわれた論理的思考が向上している。メガAIベンダーによる高性能化と汎用化を目指す動きは予想を超える速度で進んでいる。

 一方で、AIの発展は別の方向性もある。これまでのモデルは大規模化で発展してきたが、いま逆に、モデルを一定の用途に特化させて小型化する動きもある。

 マイクロソフトは24年4月、小規模で高効率を目指したモデル「phi-3シリーズ」を公開した。テキスト解析用でパラメーター数が140億の「phi3-medium」と70億の「phi3-small」、画像や動画を解析可能な「Phi-3.5-Vision」などである。

 マイクロソフトが公開した論文「Phi-3 Technical Report: A Highly Capable Language Model Locally on Your Phone」(スマホで使える高機能な言語モデル)によれば、限定的な用途であれば、大規模モデルに匹敵する推論性能を持ち、スマートフォンのようなリソースの限られた環境でも動作するよう設計されている。

 小規模モデルは、一定条件下で商用利用を許可したオープンモデルとして、マイクロソフト以外にもグーグルやメタ・プラットフォームズなどもリリースしており、今後、用途に合わせてモデルを使い分ける動きが加速するだろう。

大きなAIと小さなAIの可能性

 大規模モデルは汎用性を高めた結果、高度な推論能力を持つものの、維持管理に莫大なコストがかかり、提供者も限られる。一方で小規模モデルは、用途に応じてさまざまなタイプが開発されて小回りが利く。両者を対比し「大きなAI」と「小さなAI」と名付ける。

チャットGPTを開発したOpen AIはさらなる進化へ Bloomberg
チャットGPTを開発したOpen AIはさらなる進化へ Bloomberg

 小さなAIは、活用シーンに合わせた柔軟性がメリットで、スマートフォンなど身近な「モノ」に組み込まれてユーザーに寄り添い、その人の状況やその環境を最もよく知る存在となる。小さなAIで解決できない問題は、大きなAIの知的リソースを必要に応じ利用し、推論能力を拡張する。大きなAIは、高い推論能力と一定の品質を維持した安定性がメリットであり、解決したい「コト」を目指して活用される。

 現在の「プロンプトエンジニアリング」のような推論の効率を上げる前処理は小さなAIが代行するため不要となり、生成AIは格段に使いやすくなる。いったんは大規模モデルと小規模モデルとして別の進化の道を進むことになったモデルは、大きなAIと小さなAIに分化し、再び相まみえて互いに補完する関係になるだろう。

アップルインテリジェンス

 アップルは24年9月、生成AIサービス「アップルインテリジェンス」に対応したスマートフォン「iPhone16」を発表した。このアップルインテリジェンスは、まさに大きなAIと小さなAIの組み合わせの好例である。スマートフォンに組み込まれた小規模モデルと、アップルの専用サーバーで稼働する大規模モデルか、もしくはオープンAIの開発する大規模モデルとが、用途に合わせて連携して回答する仕組みになっている。

 アップルが考えるAIの未来は、24年6月に公開された同社の論文「ReALM: Reference Resolution As Language Modeling」にも垣間見える。スマートフォンなどの画面からユーザーの状況を理解することに特化した小規模モデルは、ユーザーの意図を察することに特化する。一方で、より高性能なモデルの推論を活用する際には、おそらくは個人情報のような機微な情報はマスキングするなどして橋渡しをする。また、モデルは小型であると学習が容易で、使えば使うほどユーザーを先読みして利便性を向上すると予想される。

知力のベストミックスの時代へ

 AIが汎用技術を目指す時、大きな問題として浮上するのは、大きなAIを誰が維持管理するのかである。高い推論能力を持つ知のインフラは、サービス停止時の社会的影響が大きい。たとえば、同じく汎用技術である電力は、火力、水力、原子力に加えて太陽光や風力があるように、さまざまな電源をミックスして安定供給を実現している。

 AIが提供する知力も、汎用技術化を見据えた場合、過度の海外依存や一部の企業による市場の独占はリスクとなる。このため、政府には、マルチベンダーによる性能や性質、コストの異なるサービスを組み合わせた「知力のベストミックス」の構築を誘導していくことが求められるだろう。

インタビュー

週刊エコノミスト最新号のご案内

週刊エコノミスト最新号

10月29日・11月5日合併号

セブンショック 次の標的は18 日本企業よ!買収提案は起死回生のチャンスだ■荒木涼子20 セブンの判断 新時代を切り開いた特別委設置■松本大21 安すぎる買収提案 創業家に物言わず退任した鈴木敏文氏の責任は重大だ■鈴木孝之22 クシュタール解剖 同業を積極買収で急成長 高い投資効率を維持■児玉万里子 [目次を見る]

デジタル紙面ビューアーで読む

おすすめ情報

編集部からのおすすめ

最新の注目記事