KAISTのメモリ内演算(PIM)研究センターに所属するYoo Hoi-Jun教授が率いる開発チームによると、世界初の「Complementary-Transformer(C-Transformer)」AIチップだという。このニューロモーフィック・コンピューティングシステムは、ビジュアルデータ処理でしばしば用いられる深層学習モデルを使うことで、人間の脳の構造と働きを模倣する。
「ニューロモーフィック・コンピューティングは、IBMやインテル(Intel)のような企業でさえ実現できていない技術だ。消費電力が少ないニューロモーフィック・アクセラレーターによって、世界で初めてLLM(大規模言語モデル)を実行したのは我々の誇りだ」とYoo教授は述べた。
疑問は残る
Transformerモデルは、1つの文に含まれる単語など、連続したデータ内の関係性を追跡することによって、文脈と意味を学習するニューラルネットワークだ。ChatGPTのような生成AIサービスの鍵を握る技術になっている。
韓国の科学技術情報通信部の本部で行われたデモでは、研究チームのKim Sang-Yeob氏がチップの機能を披露した。Kim氏は、このチップを搭載したノートパソコン上で、オープンAI(OpenAI)のLLMである「GPT-2」を使い、Q&Aセッションや、文の要約、翻訳などのタスクを実行した。インターネットにつなげたノートパソコンでGPT-2を実行した場合と比べて、少なくとも3倍(最大で9倍)のスピードでタスクが完了した。
生成AIタスクにおいてLLMを実装するには、多数のGPUと250ワットの電力が必要になるのが一般的だが、研究チームによると、今回のチップはエヌビディアのGPUと比べて、同じタスクの場合、電力消費がわずか625分の1で済むという。また、サイズも4.5mm x 4.5mmと41分の1で済み、最終的には携帯電話のような機器に搭載できるという。
しかしながら、その約束を現実世界で果たせるのかは、まだ不明だ。テクノロジーメディア「Tom’s Hardware」は、次のように報じている。「KAISTのC-Transformerチップは、NVIDIAの強力なA100シリーズGPUと同じLLM処理タスクを実行できるという話だった。しかし、我々が手にしている報道資料と会議資料のいずれにも、性能を直接比較する指標は一切なかった。重要な統計値なので、その不在が際立っている。シニカルな人であれば、C-Transformerにとって性能比較はプラスにならないのだ、と推測することだろう」
この記事は、TechRadarのWayne Williamsが執筆し、Industry DiveのDiveMarketplaceを通じてライセンスされたものです。ライセンスに関するお問い合わせはlegal@industrydive.comまでお願いいたします。
関連情報
パワー半導体パッケージング技術の最新動向、高放熱性・高耐熱性を実現する最先端素材
スマートフォンや電子機器等の省エネ化、EV等の次世代モビリティ、基地局、再エネの電力制御など、パワー半導体の技術開発は、ますますの高出力化や高効率化が進みます。
高放熱・高耐熱・接合信頼性の工場・小型化などの課題に対応するための最先端素材と、パッケージングの技術動向をご紹介します。