- 2025年末から2026年初頭にかけてAIエージェントは「幼児期」に突入。ノーコードツールとオープンソース個人エージェントの普及が加速したが、ガバナンスの整備が追いつかない状況が生まれた
- DataRobotが後援した2025年12月のIDC調査によると、エージェントAI導入組織の92%がコストを予想以上と回答。ainvestの2026年2月のレポートでは、1セッション最大10万ドルに達するケースが確認されている
- 権限管理・ゾンビエージェント・財務超過・責任の所在という4つの構造的課題に対し、静的ポリシーではなくワークフローに組み込まれた動的ガバナンスへの転換が急務とされている
「幼児が走り始めた」AIの現在地
子どもの発達には節目がある。ハイハイから立ち上がり、よちよち歩きを経てスプリントへ移行するとき、周囲の環境も親の対応も根本的に変わる。インテルのLynn Comp氏は、AIエージェントの進化をまさにこのプロセスに重ねて論じている。
MIT Technology Reviewに掲載されたComp氏の分析によると、生成AIは2025年12月から2026年1月にかけて「幼児期」に突入したという。複数のベンダーがノーコードツールを相次いで投入し、さらにGitHub上でオープンソースの個人エージェント「OpenClaw」が公開されたことで、技術的なハードルが劇的に下がった。「生成AI技術という赤ちゃんが、カーペットの上でのハイハイをやめて突然スプリントを始めた。しかし多くのガバナンス原則は、この変化に対応できていなかった」とComp氏は指摘している。
このメタファーが示すのは、単なる技術の進化ではない。企業向けAIエージェントの実装競争が激化するなか、自律AIが人間の監督なしに動き始めることで、これまで想定していなかったリスクが顕在化しているという構造的問題だ。
「誰が責任を取るのか」という問い
これまでのガバナンスは、ローン審査や採用判断のように「重要な意思決定の前に人間が介在する」ことを前提としてきた。モデルの出力を人間がチェックし、問題があれば差し戻す構造の中で、リスク管理は成立していた。
しかし自律型エージェントが複雑なワークフローを担うようになると、人間の介在は大幅に減少する。CX Todayが端的にまとめているように「AIが仕事をし、人間がリスクを負う」という構図が生まれる。さらに2026年1月1日にはカリフォルニア州法(AB 316)が施行された。同法は「AIがやったことで私が承認したわけではない」という言い訳を法的に封じるものであり、ちょうど親が子どもの行為に対してコミュニティへの責任を負う構造と重なるとComp氏は論じている。
Comp氏が強調するのは、自律AIの利点を活かしながらもガバナンスを維持するためには、委員会が策定する静的なポリシーではなく、ワークフローに最初から組み込まれた動的なコードとしてガバナンスを設計する必要があるという点だ。
権限管理とセキュリティリスク
Comp氏は、エージェントへの権限付与を「3歳児に武装ドローンをリモートコントロールするゲーム機を渡すようなもの」と表現する。エージェントは複数の企業システムをまたいでアクションを連鎖させるため、本来1人の人間ユーザーに付与されるべき権限の範囲を超えてドリフトする危険がある。
OpenClawはその典型例として挙げられている。ユーザー体験は人間のアシスタントと作業するような感覚に近いと評価される一方、ZDNetはセキュリティ専門家の見解として「経験の浅いユーザーが容易に侵害される可能性がある」と報じた。Comp氏は、これを企業ITが長年直面してきた「シャドーIT」問題と重ねて捉えている。自律エージェントでは、長期間有効なAPIトークン、サービスアカウントの認証情報、コアファイルシステムへのアクセス権限など、リスクの規模はこれまでより大きいとされている。
ゾンビエージェント問題
Comp氏は興味深い事例を紹介している。ある人物がGPUクラウドインスタンス上で放置・稼働し続ける「ゾンビプロジェクト」を発見して終了させることで、クライアントの数十万ドルを節約したという。自律エージェントが社内に数千単位で増殖すれば、同様のゾンビ群が形成されるリスクがある。
特に懸念されるのは、従業員が独自に作成したエージェントの行方だ。部署異動や退職によって、そのエージェントは「孤児化」する。しかし永続的なサービスアカウントの認証情報や各種権限は消えることなく残り続ける。Comp氏は、特定の従業員IDと権限に紐付いたエージェントを廃止・削除するための積極的なポリシー整備が不可欠だと論じている。
財務ガバナンスという盲点
コスト面でも警戒が必要な状況が浮かび上がっている。DataRobotが後援した2025年12月のIDC調査によると、生成AIを導入した組織の96%、エージェントAIを実装した組織の92%が「コストは予想よりも高かった、あるいは大幅に高かった」と回答している。
ainvestの2026年2月のレポートでは、一部のAIファースト系スタートアップ創業者が、単一エージェントのトークンコストが1セッションあたり最大10万ドルに達しうると認識していることが確認された。従来のクラウドFinOpsは決定論的なコスト構造を前提としていたが、エージェントAIは確率論的だ。ユーザーが増えるほどトークンや計算時間が増え、コストは際限なく拡大しうる。Comp氏はこれを「幼児のゲーム機でオンラインショッピングカートのボタンが解除された状態」と表現している。
成熟に向けた道筋
Comp氏は、自律AIの約束するもの——業務の加速、製品投入の迅速化、顧客体験の向上——を実現するためには、ガバナンスの根本的な転換が必要だと論じている。権限の事前設計、セントラルディスカバリー、監査、修正対応、そして財務管理の各機能を、ワークフローに最初から組み込む形で設計することが求められている。
記事では、人間がループ内外に関わり続けることの重要性も強調されている。「AIが機械のスピードで動作する」という目標と「人間が最終的な責任を負う」という現実の間で、ガバナンスの枠組み自体も機械のスピードに追いつく必要があるとComp氏は結論付けている。エージェントAIが「幼児期」を超えて成熟するためには、技術の進化と並走する形でガバナンスの変革が進むことが不可欠だと指摘されている。

