【AI】「富岳」で和製生成AI 東工大や富士通、23年度中に
開発には理化学研究所や東北大学も参加する。生成AIの基盤となる大規模言語モデルを独自に開発する。AIの学習にはオンライン百科事典の「ウィキペディア」などで公開されている日本語のデータなどを使い、日本語の対話能力を高める。日本企業として独自の生成AIの開発を目指すサイバーエージェントとも連携する。
日本でも生成AIを開発する動きはあるが、性能を左右するパラメーター数は数十億程度であることが多い。サイバーが17日に公開した大規模言語モデルも最大68億だ。東工大などはチャットGPTの基盤である「GPT-3」の1750億に近い1000億程度のパラメーター数を持つ大規模言語モデルなどを構築する。
大規模なモデルの構築には高い計算能力を持つスパコンが必要だが、日本の民間企業は世界的な競争力のある機種を保有していない。世界ランキング2位の富岳を運営する理研などは新たに生成AIの開発を重点テーマと位置づけ、開発した大規模言語モデルは産業界や研究機関が活用できるよう公開する。
富岳は生成AIの学習に適した画像処理半導体(GPU)などを搭載していない。ただ、国内にあるAIの計算に特化したスパコンと比べても「富岳は高性能のCPU(中央演算処理装置)を多く搭載しており、AI開発でも性能は高い」(富士通)として活用を決めた。
オープンAIなどの米テクノロジー企業は外部企業に対して学習済みのAIを提供するケースが多い。東工大などは基盤となる大規模言語モデルそのものを公開し、日本企業などが自前のデータで学習させて独自の生成AIを開発できるようにする。
https://www.nikkei.com/article/DGXZQOUC223IT0S3A520C2000000/