経済・企業

生成AIは半導体の起爆剤 小型ロボットが人類必携に 津田建二

「チャットGPT」に代表される生成AIの進化で、半導体需要は異次元の増加を見せそうだ。

>>特集「半導体 黄金時代」はこちら

 文章や画像、プログラムコードなどを生み出す生成AI(人工知能)への注目が世界的に高まるのと並行して、半導体の進化に注目が高まっている。最重要のチップであるGPU(画像処理プロセッサー)を設計・販売する米エヌビディアの株価急騰はその象徴だ。

 生成AIには膨大なアルゴリズム(計算手順)のモデルが必要で、ハードウエアの進歩なしではその普及、拡大を支えきれない。AIが文章を生み出すために必要な「大規模言語モデル(LLM)」のパラメーター(言語モデルの性能を表す指標、多いほど高性能)は1750億個といわれ、汎用(はんよう)のハードウエアではこれを「学習」させるのに1年近くを要する。

 生成AIへの注目が高まったきっかけは、人間が書いたような自然な文章を生み出すAIの「チャットGPT」が昨年末に一般に公開されたことだ。チャットGPTに、「どのような種類の半導体を何個使っているのか」と聞いたところ、「CPU(中央演算処理プロセッサー)やGPU、TPU(機械学習向けプロセッサー)などさまざまな種類の半導体を使っています。(チャットGPTで使われた言語モデルの)GPT-3では数千個のGPUが学習や推論に使われています」と答えた。そして、次のように続けている。「チャットGPTで使われるチップは、新しいより強力なチップが利用可能になるにつれ、変化する可能性があります」

専用から汎用へ

 生成AIがこれまでのAIとは違うといわれるのは、その汎用性だ。これまでのAIは専用AIだった。画像認識、音声認識、文字認識などそれぞれの分野で得意なAIは、同じ画像認識でも用途によりさらに異なる技術が必要だった。例えば、自動運転なら、人や乗用車、自転車、トラック、バスなど道路上に存在するものを認識、区別することで、「ブレーキをかける」「ハンドルを右に切る」などの次の操作につなげる。認識すべき対象物は限られている。

 同じように画像認識を使う自動外観検査装置では、製品のキズや汚れを自動的に認識させるための学習が必要だが、どれがキズでどれが汚れなのか、製品によって異なるため、それぞれ定義しなければならない。

 専用AIは、ユーザーごとに認識すべき対象物を学習させる必要があった。このためビジネスとしてはコストを下げることが難しい。コンサルタント料金を含めたAIサービスの提供という形をとらざるを得なかった。

 これに対して汎用AIなら、ユーザーごとの調整は不要になる。生成AIは、汎用AIに近づいているという点で、いまAIが再び注目されているのだ。

1.9兆ドル市場に

 AIが今後、汎用AIへ進むならこれまでの専用AIとは全く違う規模に成長するだろう。米ブルームバーグは、生成AI市場を2022年の400億ドル(5兆6000億円)から32年には1.3兆ドル(182兆円)に膨れ上がると予想する。また、米調査会社プレシデンス・リサーチはAI市場が32年に1.9兆ドル(図)と予測しており、いずれも巨大な市場になることは間違いないだろう。

 生成AIの先頭を行くのが米国企業のオープンAIである。マイクロソフトが10億ドルをすでに出資しており、さらに100億ドルの追加出資を提案している。マイクロソフトはクラウドサービスの「アジュール」上でオープンAIのサービスを提供している。また、グーグルやアマゾンといった米巨大テックも自社でLLMを開発、生成AIのサービスを提供している。

 汎用AIは、どうやって作るのか。汎用AIの研究者のひとりで、現在シンギュラリティネット社(本社アムステルダム)のCEO(最高経営責任者)であるベン・ゲーツェル氏に数年前インタビューした。当時、金融市場で資産運用管理に使う汎用AIを開発していた。金融市場データ、ニュース、マクロ経済データ、企業の財務データなどさまざまな分野のデータを集め、1週間後の株価を予測するという。汎用AIでは、それぞれのデータプレーンを学習させ、学習データを基に将来を予測するものだという。

 こうした用途よりもさらに汎用的なAIとなれば、自然科学系、工学系、社会科学系、人文科学系、芸術系など、ありとあらゆる学問領域、知識をAIマシンに学習させる必要がある。必然的に学習させるデータ量は膨大になる。それでも生成AIは、どのようなジャンルの質問にもある程度のレベルの回答を出すようになった。

 オープンAIは1750億個もの膨大なパラメーターを使い、GPT-3を完成させた。現在さらに進んだGPT-3.5、GPT-4をリリースしたところだ。オープンAI以外にも世界のさまざまな企業がLLMの開発でしのぎを削っている(表)。

 学習の際に、膨大なソフトウエアを少しでも軽くするため、トランスフォーマーと呼ばれるモデルをグーグルが開発し、この技術を利用した生成AIが17年に生まれた。

 文字を入力して、それを認識・理解させた後に、AIが回答するために必要な文章パターンを想定し、次に出てきそうな単語を探す。例えば、「明日の天気は」というテキストが来ると、次に予想される単語は、「晴れ」「雨」「曇り」「雪」などに限られる。それ以外の単語に注目する必要はない。このようにして次に出てくる単語を探し、予測することで、無駄な単語を検索しなくて済むため処理すべきデータ量を減らしている。

 チャットGPTでは、文字データをさまざまな分野で学習させるのに約300日、1年弱を要したといわれている。それらを適切な時間(最大1週間)で処理するためには、高性能な半導体が欠かせない。今のところ、エヌビディアのGPUがAIを学習させる上で利用可能な半導体として圧倒的な80%程度のシェアを占めているといわれている。

「学習時間」の短縮も焦点

 エヌビディアのチップだけがAIの学習に向くわけではない。米AMDは、今年1月に米ラスベガスで開催されたハイテク技術見本市「CES」において、GPUを制御するCPUも集積した学習向け集積回路(IC)「MI300」を開発したと発表。今年の後半には市場に投入すると表明した。この巨大なチップには基本的なシリコン上に多数のGPUとCPU(24個の4コア・マイクロプロセッサー『Zen』を搭載)、128ギガバイトの巨大な高周波メモリーを集積しており、全トランジスタ数は1460億個にも上る。

AI用チップを発表したAMDのリサ・スー最高経営責任者(2023年1月、ラスベガス) Bloomberg
AI用チップを発表したAMDのリサ・スー最高経営責任者(2023年1月、ラスベガス) Bloomberg

 エヌビディアのGPUよりも巨大なこのチップで、従来だと学習するのに数カ月かかっていたAIモデルが数週間で済むだろうと、AMDのリサ・スーCEOはCESの講演で述べていた。

 米スタートアップのセレブラス社は、LLMのような大規模AIモデルの開発者向けに、300ミリウエハーを最大限四角に取り切った、巨大(21.5センチ×21.5センチ)なAIチップ「ウエハー・スケール・エンジン(WSE)を提供している。同社によると、GPUの1000倍もの性能を持つ巨大なAIチップを使えば、AIの学習時間が300日(7200時間)から1000分の1、7.2時間に短縮できるという。巨大なAIモデルの構築をあきらめていた研究者にとってモデルの構築が現実的になり、研究は加速することになろう。

 こういったAIチップが登場すると、それを支える周辺の機能を提供する半導体の需要も出てくる。これらのAIチップはデータセンターに導入してクラウドコンピューターとして動作させる。そのためには、周波数発生器や電源IC、DRAM、制御用CPU、NoC(ネットワーク・オン・チップ)やネットワークスイッチなど大量の学習用AIチップを支える半導体が必要になってくる。すでにルネサスエレクトロニクスはクロックICと電源ICの供給に力を入れている。

スーパーコンピューター「富岳」(2021年3月)
スーパーコンピューター「富岳」(2021年3月)

 日本でも東京工業大学と東北大学、富士通、理化学研究所は国産スーパーコンピューター「富岳」(写真)を使って日本語によるLLMの学習効率を上げる手法を開発すると5月に発表。来年3月末までに得られた研究成果を公開する。オープンAIが持つ大規模言語モデルGPT-3は、21年9月までの英語をベースにしたデータを学習させたもので、日本特有の事柄については学習していない。このため日本特有の事柄をチャットGPTに質問しても正確さに欠けていた。

暴走防ぐ仕組み必須

 生成AIの用途は、現状ではチャットGPTや自動絵画制作の“DALL.E”などがあるものの、この応用にはどのようなものがあるだろうか。前出のゲーツェル氏は、小型ロボットに注目する。同氏はすでに対話のできる「ソフィア」という名のロボットを作っている。小型ロボットが生成AIで対話できれば高齢者や1人暮らしの人の「友達」になりうる。テキストベースでのUI(ユーザーインターフェース)を音声認識と音声合成を導入することで対話できるようになる。孤独の問題が世界的な課題に浮上する中で、有力な解決策になるかもしれない。クラウドコンピューターとやり取りするロボットであれば、生成AIを十分活用できる。

 ただし、生成AIの高度化が進む学習方法では、AIを暴走させないようにする仕組み作りも重要になる。倫理に反するような犯罪行為を学習させると人類の敵となりうるからだ。こうした状況を未然に防ぐ仕組み作りを同時に始める時期でもあろう。

(津田建二・国際技術ジャーナリスト)


週刊エコノミスト2023年7月18・25日合併号掲載

半導体黄金時代 生成AIは半導体の起爆剤 小型ロボットが人類必携に=津田建二

インタビュー

週刊エコノミスト最新号のご案内

週刊エコノミスト最新号

4月30日・5月7日合併号

崖っぷち中国14 今年は3%成長も。コロナ失政と産業高度化に失敗した習近平■柯隆17 米中スマホ競争 アップル販売24%減 ファーウェイがシェア逆転■高口康太18 習近平体制 「経済司令塔」不在の危うさ 側近は忖度と忠誠合戦に終始■斎藤尚登20 国潮熱 コスメやスマホの国産品販売増 排外主義を強め「 [目次を見る]

デジタル紙面ビューアーで読む

おすすめ情報

編集部からのおすすめ

最新の注目記事