先日の記事で、「AIの成長は電力消費がボトルネックになり得る」という話をしました。ここではその前提が大きく崩れないものとして、次の一手を考えます。
もしAIサーバーの電力消費が問題になるなら、社会はおそらく2方向に同時に動きます。
- 電気設備(発電・送電・変電・データセンター設備)の増設
- 同じ計算をより少ない電力で回す“電力効率の良いAI半導体”の開発
そして後者、つまり「省電力な半導体」の文脈で、最近話題となっているのが日本のスタートアップ Lenzo(レンゾ) と、そのアーキテクチャ CGLA です。
“計算そのもの”より“データ移動”が電気を食う
AI計算はざっくり言えば「大量の行列演算」です。ところが現代の計算機は、演算器とメモリが分かれた(いわゆるノイマン型の系譜にある)構造を基礎にしていて、演算よりも、メモリ⇄演算器のデータ移動が重くなりやすい。このギャップが大きいほど、性能だけでなく電力面でも不利になりやすい、という問題意識があります。
ここを突く設計思想は、近年いろんな名前で語られます(インメモリ系、データフロー系、非ノイマン系など)。共通しているのは、「移動を減らす」か「移動の形を変える」という発想です。
Lenzoが掲げるCGLAは、GPUが抱えやすい「データ移動コスト」を構造から見直し、GPU比で消費電力を最大9割削減することを目標にしている、と紹介されています。
ポイントとして語られているのは、例えばこんな方向性です。
- AIに必要な計算に寄せて、構造を最初から組み直す
- 現状のAIに特化するわけでなく、新規のAIアルゴリズムにも対応できる汎用性持たせる
詳細は以下の動画を参考にしてください
もちろん現時点では開発段階なので、実際の製品・量産・ソフトウェア対応まで含めて評価が固まるのはこれからです。とはいえ、電力が制約になるほど、このメリットが重要になってきます。
「じゃあNVIDIAが作ればよくない?」が簡単じゃない理由
ここで自然に出てくる疑問がこれです。
そんなに効率が良いなら、資金力のあるNVIDIAが同じ思想で作ればいいのでは?
これには意外と難しい点もあります。
30年以上積み上げた“勝ちパターン”を捨てる痛み
NVIDIAは既存GPUの延長線で、巨大な最適化と改善を積み上げてきました。電力効率のために設計思想を大きく変えるのは、過去の知見・資産・最適化を手放すことに近い。これは技術というより「経営としての意思決定コスト」が大きい領域です(いわゆる既存企業のジレンマ)。
ただ、NVIDIAの圧倒的な強みもあります。それがCUDAです。
NVIDIAの強みはハード単体ではなく、CUDAという開発・実行の土台(ソフトウェア層)が巨大なエコシステムになっている点です。CUDAはNVIDIA自身も「GPUの力をアプリが使うためのプラットフォーム」と説明しています。
このシステムがある限り、「ハードが良い」だけでは置き換えが進みにくいのです。
それでも独占が揺らぐ可能性はある
一方で、同じAIでも 学習(training) と 推論(inference) は事情が違います。
- 学習は、巨大モデル・分散・最適化・ツール群まで含めて依存が深くなりがちで、CUDA優位が残りやすい
- 推論は、運用環境が多様で、CPU・各種アクセラレータ・別ベンダーでも回しやすい方向に寄りやすい
実際、ONNX Runtimeのように「複数ハードで推論を動かす」前提の仕組みも整っています。
そのため、置き換えが始まるとしたら推論領域から、になると思います。推論で採用が積み上がるほど、学習側にも波及する可能性も出てきます。
また、GoogleのTPUも、「AI向けに最適化した独自アクセラレータ」の代表例です。TPUはGoogle自身が、学習と推論に最適化したカスタム設計のAIアクセラレータだと説明しています。
これらの登場はつまり
AI半導体は、NVIDIAの独占市場ではなくなっていく可能性がある
ということを意味します。
ただし、短期で一気に崩れるというよりは、
- 推論から多極化が進む
- 学習はCUDA優位が残りつつも、周辺から侵食される
という形が現実的に見えます。
まとめ:電力制約は「設備」だけでなく「アーキテクチャ競争」を加速させる
電力問題が本格化すると、世界は設備増強だけでなく、電力効率の良い計算へと舵を切ります。そこで出てくるのが、CGLAやTPUのような新たなチップです。
NVIDIAのもつCUDAという圧倒的優位性は現在でも健在ですが、推論領域から段階的に市場が“独占→多極化”へ向かう道筋は見え始めています。

