DeepSeek、中国、OpenAI、NVIDIA、xAI、TSMC、Stargate、AIメガクラスタ|Lex Fridman Podcast #459

Higtyのシステムの作り方

Lex FridmanのPodCastの日本語での要約です。


DeepSeek, China, OpenAI, NVIDIA, xAI, TSMC, Stargate, and AI Megaclusters | Lex Fridman Podcast

https://www.youtube.com/watch?v=_1f-o0nqpEI



はじめに:AI革命の新局面

昨年末から今年にかけて中国のAI企業「DeepSeek(ディープシーク)」が立て続けに発表した言語モデル「DeepSeek V3」と、その強化版である「DeepSeek R1」が、AI業界に大きなインパクトを与えている。特にR1は推論(思考プロセス)を可視化するチェーン・オブ・ソート出力で注目を集め、OpenAIの最新モデル「O3 Mini」や米大手ラボが手掛ける推論特化モデルと比較しても、性能コスト比やオープンウェイトの公開方針などで存在感を放っている。


一方、AIの裏側では、GPU(グラフィックス・プロセッシング・ユニット)を中心とした超大規模クラスタ競争が過熱しつつある。米国のOpenAIやAnthropic、メタ、イーロン・マスク率いるXAIなどは、数万~数十万単位のGPUを活用して巨大な言語モデルをトレーニングしている。ディープシークも中国国内で数万~5万枚とも言われるクラスターを運用しており、米中貿易摩擦を背景とした輸出規制の攻防、半導体製造を巡る地政学的リスクが絡むことで、AI業界はかつてない複雑な様相を呈している。


レックス・フリードマンのポッドキャストでは、半導体やAIハードウェアの専門家ディラン・パテル(Semianalysis)と、アレンAI研究所(Allen Institute for AI)のリサーチサイエンティストで「Interconnects」著者のネイサン・ランパートが登場し、ディープシークR1やGPUクラスタ事情、オープンソースAIの行方など幅広いトピックを整理した。本記事では、そのディスカッションを4つの大きな切り口――(1) DeepSeek V3/R1の技術的特徴、(2) GPU・クラスタ競争と地政学、(3) オープンウェイトとAIの将来、(4) 人類の未来とAI――に分けて詳しくまとめる。


1. DeepSeek V3/R1の技術とインパクト

1-1. Mixture of ExpertsアーキテクチャとMLA Latent Attention

DeepSeek V3は、いわゆるMixture of Experts(MoE)型のトランスフォーマー言語モデルで、総パラメータ数こそ数千億規模に上るが、実際には入力ごとに「エキスパート」と呼ばれるネットワークの一部だけをアクティブにする。これにより、デンスモデル(すべてのパラメータを常時利用)のように膨大な計算を必要とせず、高い効率性を維持できる。


さらにDeepSeekの論文で注目されるのが「MLA(Multi-Head Latent Attention)」という独自のアテンション最適化。通常、トランスフォーマーのアテンション演算はコンテキスト長に対して二次的にメモリを消費しがちだが、MLAによりメモリ使用量を抑えながら長いコンテキストも扱いやすくなる。こうした低レイヤー最適化を通じて、DeepSeekは中国向けの制限版GPU(H800など)の通信帯域制限を乗り越え、学習コストを他社モデルより低く抑えることに成功したという。


1-2. 推論モデルR1が見せる「Chain of Thought」可視化

R1(推論モデル)は、V3ベースの学習をさらに強化学習で鍛え、回答の途中に「推論過程(思考プロセス)」を明示的に表示するのが大きな特徴だ。チェーン・オブ・ソート(Chain of Thought)そのものはOpenAIなどが研究論文で示していたが、DeepSeekのR1はそれをデフォルトでフルに見せる形を採っている。


ユーザー視点の体験

「人間について斬新な洞察を教えて」といった哲学的な質問を投げると、モデルが延々と“自問自答”しながら結論を導いていく文章がリアルタイムで生成される。裏側では大規模言語モデルが数多くのトークンを生成しているだけだが、その膨大なテキストを眺めると、まるで生身の思考を観察しているかのような錯覚を与える。


問題点:推論コストの高さ

ただし、チェーン・オブ・ソートを出力するには、中間ステップのトークンもすべて生成するため推論コストが高い。DeepSeekはAPI提供もしているが、あまりの負荷から新規登録を一時停止することもある。大規模ユーザーベースに対応しようとすると、膨大なGPUリソースを用意しなければならず、ディープシーク自身が「推論モデルの提供」を十分に回せていない現状があると指摘される。


1-3. OpenAIのO3 Miniなど新モデルとの比較

ディープシークR1の競合として、OpenAIの「O3 Mini」や「O1 Pro」、グーグルの「Gemini Flash Thinking」などが取り沙汰される。これら米大手ラボの“推論モデル”は、数学・コードなど検証可能なタスクを強化学習で最適化し、高難易度の問題やブレインストーミングに長けている。一方、DeepSeek R1はチェーン・オブ・ソートを可視化する点がユニークで、しかもオープンウェイトという姿勢がコミュニティから注目を集めている。


ただし、R1とO1 Proの汎用チャット能力を比較すると、細かいタスクの精度や自然な文章生成のバランスでOpenAIの方がやや優位という声もある。いずれにしても、RLによる推論強化は2023年末以降のAI大手がこぞって導入しており、特に数学・プログラミング領域でモデル性能が大きく引き上げられている事実は共通している。


2. GPU・クラスタ競争と地政学的リスク

2-1. 爆発する“メガクラスタ”構築:米国vs中国

ディラン・パテルやネイサン・ランパートが口をそろえて強調したのが、AI研究に不可欠な大規模GPUクラスターの著しい拡大だ。


米国側の動き


OpenAIはGPT-4で2万枚超のA100を使ったとされ、その後数十万単位のH100を追加導入している。

イーロン・マスクはメンフィスで独自に“20万枚”規模のH100クラスターを建設し、さらには「100万枚」構想を示唆している。

メタやAnthropic、Googleなども既存データセンターを増強し、推定10万~20万枚級の巨大クラスタを複数抱え始めている。

テキサス州アビリーンでは「Stargate」という大規模プロジェクトが進行していると報じられ、数千億~1兆円規模をかけてギガワット級の電力網と連携したデータセンターを建設中という。

中国側の動き


DeepSeekの親会社である巨大ヘッジファンドが大量のGPU(1万枚~5万枚規模)を保有していると見られ、R1のトレーニングや推論を支えるクラスターを運用。

米国が中国向け先端GPUを規制しているため、Nvidia製のH800やH20といった制限版チップが投入されている。

それでも独自の分散通信最適化を行い、A100相当の性能を引き出している事例がある。


2-2. Nvidiaの独走と“密輸”の噂

現状、AI向けGPUではNvidiaが圧倒的優位に立ち、ソフトウェアスタック(CUDAやNCCLなど)も含めたエコシステムが他社の追随を許さない。AMDやインテルがGPUハードウェアを出してはいるが、ソフト面の成熟不足で大規模トレーニングには使いづらいとの声がある。


他方、米国政府が対中国輸出規制を強化する中、H100など先端GPUを中国が“迂回輸入”しているとの疑惑も浮上。実際に機内持ち込みでサーバーを中国に持ち込む事例や、マレーシアやシンガポール経由で膨大なGPUが流れているといった話がポッドキャストでも言及された。ディープシークがどの程度合法ルートでチップを獲得しているかは不透明であり、米中テック冷戦の核心としてこの輸出管理がさらにエスカレートしていく可能性もある。


2-3. データセンターの電力・冷却問題

大規模GPUを何万枚も動かすには、一拠点で数百メガワット~ギガワット級の電力が必要になる。メンフィスの施設では実際にガス火力発電所を隣接して動かすなど、既存の電力網に収まりきらない規模のインフラ投資が急速に進む。冷却面でも空冷から水冷への転換が加速し、液冷の導入やメガパック(大容量バッテリー)を組み合わせて電力スパイクを平準化する取り組みが実際に行われているという。


ネイサン・ランパートはこれを「前代未聞の規模の産業インフラ構築」であり、国家レベルのエネルギー政策にも直結していると述べる。こうした巨大AIクラスタの建設競争は、単にテック企業同士の競合にとどまらず、米中双方で防衛産業、地政学上の優位、経済覇権を争う一大プロジェクトとなりつつある。


3. オープンウェイトとAIの将来

3-1. DeepSeekの「オープンウェイト」モデル

DeepSeek V3/R1はウェイト(モデル重み)をオープンにしており、商用利用も比較的緩いライセンスが付いていることで「本物のオープンソースAI」として注目される。過去にもMetaのLlamaシリーズやMistral、MosaicMLなどがオープンソースを謳ったが、実際はライセンス制限やデータ非公開などで完全オープンとは言いがたいものが多い。

R1に関してもプリトレーニング時のデータ詳細が公開されていない部分はありつつも、大手のクローズドモデルと比べれば格段に情報が開かれている。


3-2. ポストトレーニングと「推論RL」の可能性

AI界では、事前学習(プリトレーニング)に膨大なコストをかける手法が主流だったが、最近は「推論トレーニング(RL)」の導入で性能を大幅に引き上げる動きが顕著だ。数学やコードの問題は正解・不正解が比較的はっきりしているため、強化学習によってモデルが自己改善しやすい。


ディープシークR1はその代表例。検証可能タスクで報酬を与え、「推論過程を出力→答えが合っているか評価→再度最適化」というループを回す。

OpenAIのO1 ProやO3 Mini、グーグルのGemini Flashも同様の技術を採用し、数学やコーディングタスクで飛躍的な性能向上を果たしている。

この「推論を何度も試して正解を絞り込む」という仕組みが、チェーン・オブ・ソートとも結びつき、AIが自律的に問題を分割・探索・検証する様子を可視化できるのが最新の潮流だ。


3-3. オープンソースの今後

オープンソースAIの隆盛は、ディープシークのような“中国発”勢力が牽引する可能性もあり、これが米国企業のクローズド戦略に対抗する形で業界を活性化させるかもしれない。一方で、学習データの扱い方や、モデルのアラインメント(安全性)をどこまで公開するかなど課題も山積みだ。


学術・研究コミュニティでいえば、モデル内部を深く検証し、バイアスや誤情報を防ぐにはオープンが理想的。

企業視点では「自社モデルのコア技術を秘匿したい」「学習済みウェイトから模倣される」という懸念も根強い。

ライセンス問題では軍事利用や特定の用途を禁じる例が増え、真のフリーソフトウェア精神を満たすモデルは少ない。

それでも、AIの基盤をもっと開いていくことが、「AGIレース」における過度な独占を防ぎ、多くの研究者や企業を巻き込む健全な競争につながる、という見方をする専門家は多い。


4. 人類の未来とAI:課題と希望

4-1. 破滅か繁栄か、揺れるシナリオ

「AIが人類を滅ぼすのでは?」という強い懸念は古くからあるが、ポッドキャストの両ゲストは「今すぐにAI自体が暴走して世界を破壊するシナリオは現実的ではない」とした。一方、人間同士のパワーバランスを変えてしまう点は大きな懸念だという。


権力集中リスク:一部の巨大企業や国家が超強力AIを独占すれば、政治・経済・軍事的に圧倒的な優位を得られ、テクノファシズム的な状態を招きかねない。

サイバー・ディスインフォメーション:高度な言語モデルが大量にフェイク情報を生成すれば、民主主義や公共言論が悪影響を被る可能性がある。

スケーリングの先:今後、強化学習やセルフプレイがさらに高度化し、AIが短時間で膨大な学習をこなせるようになれば、人間の想像を超える意思決定支援が現実となる。そこに倫理や安全策をどう組み込むかが課題だ。


4-2. 仕事と経済への影響

現在、最も即効性のある活用領域として「プログラミング支援」が挙げられる。コーディング補完ツール(Copilotなど)によって開発コストが下がり、中小企業でも専属エンジニアを大規模に雇わなくてもソフトウェアを構築できる未来が見え始めている。


生産性向上:コード自動生成やドキュメント作成、テスト実行などが迅速化。企業のIT活用の敷居が下がる。

仕事の定義の変化:プログラマーは「AIの出力を監督・検証する」役割へシフトし、高度な設計やデバッグに注力することになりそうだ。

SaaSや既製品市場への影響:AIによるカスタムソフト生成が安価に実行できるなら、既存の横断的プラットフォーム依存度が下がり、各企業が独自のソリューションを構築する時代が来る可能性がある。


4-3. 宇宙や長期展望

レックス・フリードマンが尋ねた「1000年後も人類は存続しているか?」という問いに対して、ゲストたちは「人間のしぶとさを考えれば続いているだろう」という楽観的な見方を示した。一方で、AIと融合した少数エリートが圧倒的権力を握る可能性も否定できないなど、新たな不平等の懸念が語られた。


いずれにしても、ディラン・パテル曰く「AI開発のペースはすさまじく、社会のあらゆるレイヤーでイノベーションが同時多発的に起こっている」。コンピュータ構造・ネットワーク・電力・半導体製造からソフトウェア・アルゴリズム、そして政治・経済・倫理に至るまで、これほど多角的にテクノロジーが進化する時代は前例がない。


まとめ:ビジョンと実装がせめぎ合う転換期

ディープシークR1の登場が象徴するように、AIモデルの進歩は「大規模化と革新的なアルゴリズムの複合」で加速している。推論過程の可視化やMixture of Experts、強化学習の組み合わせによって、かつては想像しづらかった自然言語推論が実現し、コーディングや数学、創造的アイデア生成などの領域で性能が飛躍している。


一方、その影には膨大なGPUクラスターと電力インフラを巡る国家レベルの競争があり、輸出規制や地政学リスクが高まる状況にある。オープンウェイトかクローズドか――AIをどう扱い、誰が支配するかをめぐる大きな論争も避けられない。

今後2~3年は、さらにモデルの推論コストが下がり、メガクラスタが世界各地で増設される「分水嶺」の時期になりそうだ。ディラン・パテルも「これからのAI経済は、人類が知能を安価に大量生産する世界へ向かうかもしれない」と語る。


レックス・フリードマンが最後に引用したリチャード・ファインマンの言葉「自然はだませない」は、まさにテクノロジーが広報や思惑を超えて現実の物理的制約に挑む姿を示唆する。超巨大モデルと巨大クラスタの時代は、私たちに新たな可能性をもたらすと同時に、社会・政治のあり方を根本から揺るがす「歴史的転換点」だ。このうねりを正しく理解し、未来をデザインするために、いっそう多くの人々がAIの中身に目を向ける必要があるだろう。