- OpenAIは完全自動化AI研究者の構築を「北極星(North Star)」と位置付け、推論モデル・エージェント・解釈可能性の研究を統合して全社リソースを集中投入すると発表した
- 2026年9月に特定課題を自律処理する「AIリサーチインターン」、2028年に完全な多エージェント研究システムの段階的ロードマップを公表した
- 長時間自律稼働に伴うリスクへの対策として、モデルの推論過程を別のLLMが自動監視するチェーン・オブ・ソートモニタリングを採用する方針を示した
OpenAIの新たな研究目標
OpenAIは2026年3月20日、同社の研究リソースを「完全自動化AI研究者(AI researcher)」の構築に集中投入すると発表しました。MIT Technology Reviewとの独占インタビューに応じた最高科学責任者(Chief Scientist)のJakub Pachocki氏は、このAI研究者の開発が「今後数年間の北極星になる」と述べています。
推論(Reasoning)モデル、エージェント、解釈可能性(Interpretability)などOpenAIが取り組む複数の研究分野がこの目標のもとに統合されます。Pachocki氏は「モデルが人間と同様に長期間にわたって一貫した形で作業し続けられる段階に近づきつつある。データセンターに研究所をまるごと収められる地点に到達できると思う」と語っています。
2段階のロードマップ
OpenAIが示したロードマップは2段階で構成されます。まず2026年9月をめどに「自律型AIリサーチインターン」を公開します。このシステムは特定の研究課題を少ない人的介入で単独処理できる設計で、Pachocki氏は「人が数日かけて行うタスクを委任できるシステムを目指している」と説明しています。
第2段階として2028年までに、人間単独では対処が難しい大規模・複雑な問題に取り組む完全な多エージェント研究システムの構築を目指します。数学・物理学の新たな定理の発見から生物学・化学の研究、ビジネス・政策課題の分析まで、テキスト・コード・図で表現できる問題であれば幅広く対象になると説明しています。

Codexを起点とした技術的アプローチ
Pachocki氏は、2026年1月に公開したコーディングエージェント「Codex」をAI研究者の初期版と位置付けています。OpenAI社内では技術スタッフの大部分がCodexを業務に活用しており、同氏は「Codexが根本的に進化していくと期待している」と述べています。
技術的な柱は2つです。1つは推論モデルの継続強化で、誤りに気づいた際に引き返しながら段階的に問題を解くトレーニングが自律稼働時間の延長につながります。もう1つは、数学・コーディングコンテストの難問など複数サブタスクの管理を要する訓練データの充実です。自律型エージェントの実用化が進む中、GPT-5はすでに複数の未解決数学問題の新解法を導き出しており、生物学・化学・物理学の研究でも成果を上げています。
安全性への対応と外部専門家の見方
長時間・高自律で動作するシステムには固有のリスクが伴います。Pachocki氏は「暴走、ハッキング、指示の誤解といったシナリオは十分に想定しており、社内でも常に議論している。AIが研究プログラム全体を実行できるほど賢く有能になれば、それは世界にとって大きな変化だ」と述べています。現時点での主要な対策は「チェーン・オブ・ソート(Chain-of-Thought)モニタリング」です。モデルが推論中に残すメモを別のLLMが自動監視し、逸脱した挙動を事前に検出する仕組みで、2026年3月にOpenAIはCodexへの適用状況を公開しました。
Pachocki氏は「この問題はOpenAI単独では解決できない。政策立案者の広範な関与が不可欠だ」と述べており、非常に強力なモデルはサンドボックス環境に隔離して展開すべきとの見解も示しています。一方、Allen Institute for AIの研究科学者Doug Downey氏は「自律型研究者のアイデアは魅力的だが、タスクを連鎖させると各ステップの成功確率が掛け合わさって全体精度が下がる課題がある」と指摘しています。
AGIとは一線を画した目標設定
Pachocki氏は人工汎用知能(Artificial General Intelligence、AGI)という表現を避け、「経済的に変革をもたらす技術」という言葉を用いています。「2028年時点でも、あらゆる面で人間と同等のシステムは誕生しないと思っている。しかしそれは必ずしも必要ではない。すべての面で人間並みに賢くなくても、非常に変革的な影響を持ち得る」とPachocki氏は述べています。

