CLOSE

About Elements

美しい未来のために、
社会を支えるテクノロジーを

TANAKAは、「社会価値」を生む「ものづくり」を世界へと届ける「貴⾦属」のスペシャリスト。
そして、「Elements」は、わたしたちのビジネスや価値観に沿った「テクノロジー」や「サステナビリティ」といった
情報を中⼼に提供しているWEBメディアです。
急速にパラダイムシフトが起きる現代において、よりよい「社会」そして豊かな「地球」の未来へと繋がるヒントを発信していきます。

Elements

美しい未来のために、
社会を支える技術情報発信メディア

検索ボタン 検索ボタン

サムスンの旧来の技術で作られたAIチップが、NVIDIA A100 GPUと同等のスピードに?

この記事をシェアする

サムスンの旧来の技術で作られたAIチップが、NVIDIA A100 GPUと同等のスピードでありながら、より小型で、電力効率が大幅向上との主張は本当か?
韓国科学技術院(KAIST)の研究チームは、エヌビディア(Nvidia)の「A100」GPUに匹敵するスピードがありながら、より小型で電力消費も大幅に少ないというAI(人工知能)向けチップを発表した。サムスン(Samsung)の28nm製造プロセスという、動きの速い半導体業界ではどちらかというと古いと考えられている技術を使って作られたという。

KAISTのメモリ内演算(PIM)研究センターに所属するYoo Hoi-Jun教授が率いる開発チームによると、世界初の「Complementary-Transformer(C-Transformer)」AIチップだという。このニューロモーフィック・コンピューティングシステムは、ビジュアルデータ処理でしばしば用いられる深層学習モデルを使うことで、人間の脳の構造と働きを模倣する。

「ニューロモーフィック・コンピューティングは、IBMやインテル(Intel)のような企業でさえ実現できていない技術だ。消費電力が少ないニューロモーフィック・アクセラレーターによって、世界で初めてLLM(大規模言語モデル)を実行したのは我々の誇りだ」とYoo教授は述べた。

疑問は残る

Transformerモデルは、1つの文に含まれる単語など、連続したデータ内の関係性を追跡することによって、文脈と意味を学習するニューラルネットワークだ。ChatGPTのような生成AIサービスの鍵を握る技術になっている。

韓国の科学技術情報通信部の本部で行われたデモでは、研究チームのKim Sang-Yeob氏がチップの機能を披露した。Kim氏は、このチップを搭載したノートパソコン上で、オープンAI(OpenAI)のLLMである「GPT-2」を使い、Q&Aセッションや、文の要約、翻訳などのタスクを実行した。インターネットにつなげたノートパソコンでGPT-2を実行した場合と比べて、少なくとも3倍(最大で9倍)のスピードでタスクが完了した。

生成AIタスクにおいてLLMを実装するには、多数のGPUと250ワットの電力が必要になるのが一般的だが、研究チームによると、今回のチップはエヌビディアのGPUと比べて、同じタスクの場合、電力消費がわずか625分の1で済むという。また、サイズも4.5mm x 4.5mmと41分の1で済み、最終的には携帯電話のような機器に搭載できるという。

しかしながら、その約束を現実世界で果たせるのかは、まだ不明だ。テクノロジーメディア「Tom’s Hardware」は、次のように報じている。「KAISTのC-Transformerチップは、NVIDIAの強力なA100シリーズGPUと同じLLM処理タスクを実行できるという話だった。しかし、我々が手にしている報道資料と会議資料のいずれにも、性能を直接比較する指標は一切なかった。重要な統計値なので、その不在が際立っている。シニカルな人であれば、C-Transformerにとって性能比較はプラスにならないのだ、と推測することだろう」

この記事は、TechRadarのWayne Williamsが執筆し、Industry DiveのDiveMarketplaceを通じてライセンスされたものです。ライセンスに関するお問い合わせはlegal@industrydive.comまでお願いいたします。