華為、AIコンテナ技術「Flex:ai」を発表

中国通信機器大手の華為技術(ファーウェイ、広東省深セン市)は21日、革新的AI(人工知能)コンテナ技術「Flex:ai」を正式に発表、同時にオープンソース化した。

現在、業界全体の計算力リソース平均利用率は30〜40%にとどまる。華為は今回、GPU(画像処理半導体)/NPU(ニューラル処理ユニット)を10%単位で細かく分割し、単一カードを複数の仮想計算力ユニットとして利用できる「計算力切分技術」を公開した。これにより単一カードで複数のAIワークロードを同時に処理でき、従来十分に活用されていなかった場面で算力利用率を平均30%向上できるという。

また、米半導体大手のNVIDIA(エヌビディア)のRun:aiがエヌビディア製カードに限定されているのに対し、華為のFlex:aiはソフトウェアによる革新により、NVIDIA、昇騰(Ascend)、その他サードパーティの計算力リソースを統合管理し効率的に活用できる。ハードウェア差異を吸収し、AIの学習・推論のために最適化されたリソース提供を実現する。

華為がFlex:aiを打ち出した背景には、大規模言語モデル(LLM)時代において「コンテナ技術とAIは本質的に相性が良い」という判断がある。

コンテナは軽量な仮想化技術であり、モデルコードや実行環境をまとめて1つの軽量イメージにパッケージ化することで、環境差によるデプロイの問題を解消。GPU・NPUリソースを必要に応じてアタッチし、リソースを柔軟に配分・回収できるため、クラスタ全体のリソース効率を大幅に高められる。

第三者調査によると、現在AIワークロードの大部分がコンテナ化されており、2027年には75%以上がコンテナ技術を用いて展開されると予測されている。一方で、従来型コンテナ技術ではAI特有の負荷要求に十分応えられず、AI時代にはAIに特化したコンテナ技術が不可欠だとされる。

Flex:aiはGPU・NPUといったスマート計算力リソースをより精密に管理し、AIワークロードとの「精密マッチング」を実現することで計算力利用率を大幅に向上させる。主な機能として、計算力リソース切分、多段階のインテリジェントスケジューリング、ノードを跨いだ計算力リソース統合などが挙げられる。

特に計算力切分では、単一のGPU/NPUカードを10%単位で複数の仮想計算ユニットに分割し、単一カードで複数AIタスクを同時処理できる点が大きな特徴となっている。

Tags: , , , , , , ,

関連記事