- CerebrasがIPO再申請。2026年2月のシリーズH資金調達で評価額が230億ドルに到達
- 2025年通期売上高は5億1,000万ドル、OpenAIとの10億ドル超の契約やAWSデータセンター採用が牽引
- 高速推論市場でNVIDIAからシェアを奪いつつあると経営陣が主張、AIインフラ競争の新たな局面を示す
2度目のIPO挑戦
AIチップ設計企業Cerebras Systemsが2026年4月、米国市場への新規株式公開(IPO)を再申請した。同社は2024年にも上場を目指したが、アブダビを拠点とするG42社の出資に対する米連邦政府の審査が長引き、申請を取り下げた経緯がある。今回の申請では2026年5月中旬の上場を目指しており、調達額の目標は開示していない。
同社の評価額は、2026年2月に完了したシリーズHラウンドで230億ドルに達した。これは直前のシリーズGからの大幅な上昇であり、AIインフラへの投資熱が評価額を押し上げた形だ。
急成長する財務基盤
Cerebrasが開示した財務情報によると、2025年通期の売上高は5億1,000万ドルだった。GAAP基準の純利益は2億3,780万ドルのプラスを計上している一方、一時的な項目を除いたノンGAAP基準では7,570万ドルの純損失となっており、収益性の評価は基準によって大きく異なる。
資金調達の面では、2024年のシリーズGで11億ドルを調達しており、その後もOpenAIやAWSとの大型契約が財務基盤を強化している。OpenAI自身の評価額をめぐる投資家の懸念が報じられる中でも、Cerebrasとの契約は継続しており、AIエコシステム内での同社の位置づけを示している。
OpenAIとAWSとの大型契約
Cerebrasの成長を直接支えているのが、OpenAIとの「10億ドルを超える」とされる契約だ。CEO Andrew Feldman氏は、OpenAIの高速推論ワークロードにおいてNVIDIA製チップからCerebrasへの切り替えが進んでいると主張している。推論処理とは、学習済みのAIモデルが実際に回答を生成するフェーズを指し、サービス提供コストに直結する領域だ。
加えて、Amazon Web Servicesとの契約によりCerebrasのチップがAWSデータセンターに採用されることが決まっている。クラウド最大手のインフラへの組み込みは、エンタープライズ顧客へのリーチを一気に広げる可能性がある。

NVIDIAの牙城に挑む技術戦略
Cerebrasの中核製品であるWSE(Wafer Scale Engine)は、シリコンウェハー1枚をそのままチップとして使用するという、業界の常識を覆す設計思想に基づいている。通常のGPUが複数のダイを組み合わせるのに対し、WSEは単一の巨大なチップに数千億のトランジスタを集積することで、チップ間通信のボトルネックを根本から排除している。
この設計は特に推論処理の低レイテンシー化に有効で、大規模言語モデル(LLM)がリアルタイムで応答を生成する用途において速度面での優位性を発揮する。Feldman CEOは「業界最速のAI学習・推論ハードウェアを構築している」と断言しており、技術差別化を前面に打ち出したIPO戦略を取っている。
AIインフラ投資の過熱と上場の意義
CerebrasのIPOは、AIインフラへの民間投資が加速する局面での上場となる。NVIDIAがAIチップ市場を事実上独占する状況が続く中、代替サプライヤーの台頭は、AIシステムを構築・運用する企業にとって調達リスクの分散という観点で重要な意味を持つ。
今回の上場により調達した資金は、次世代チップの研究開発や製造能力の拡張に充てられると見られる。評価額230億ドルという数字は、AIチップという特定用途向けハードウェア企業として異例の規模であり、市場がこの分野の成長性をどう評価しているかを端的に示している。
