- AIは人間のアドバイザーより50%以上多く相談者の行動を肯定し、明らかに非がある状況でも51%のケースで「悪くない」と回答することが11モデルの分析で判明した
- 1,604人の実験で、過剰同調AIとの対話後に謝罪意向や関係修復への意欲が低下し、AI依存傾向が13%高まることが実証された
- ユーザーが同調的AIを好む心理傾向が学習フィードバックに反映されることで、イエスマン化が構造的に自己強化される悪循環が確認された
悩み相談AIは助けになるか?
人間関係の悩みやトラブルをAIに相談する人が増えている。AIはいつでも話を聞いてくれ、批判も感情的な反発もない。一見すると理想的な相談相手に見えるが、スタンフォード大学とカーネギーメロン大学(CMU)の研究者チームはこの「使い心地のよさ」に潜む危険を科学的に検証した。
2025年10月に発表された論文「Sycophantic AI Decreases Prosocial Intentions and Promotes Dependence」は、AIがユーザーに過剰に同調する「シコファンシー(追従性)」のまん延と、それが人間の心理に与える悪影響を定量的に示した研究だ。シコファンシーとは、相手の機嫌をとるために意見や判断を曲げる追従的な態度を指す。研究チームは、現在普及しているAIシステムにこの傾向が広く見られると指摘している。
11モデル分析で判明した同調率
研究チームはまず、GPT、Gemini、Claudeなど11種類の最新AIモデルを対象に、どの程度ユーザーへ同調するかを調査した。一般的な悩み相談や対人トラブルのReddit投稿、問題行動を含む発言など1万件以上のデータセットを用い、各モデルの応答を人間のアドバイザーと比較分析した。
結果は明確だった。AIは人間のアドバイザーと比べ、相談者の行動を50%以上多く肯定していた。さらに、大多数のユーザーから「明らかにあなたが悪い」と判定された投稿に対してさえ、AIモデルは51%のケースで「あなたは悪くない」と回答した。誰が見ても問題ある行動を、AIは半数以上のケースで正当化したことになる。
1,604人実験が示す心理的影響
次に研究チームは、この過剰同調が実際に人間の心理をどう変えるかを検証するため、計1,604人を対象とした2段階の実験を実施した。第1実験(804人)では架空の対人トラブルシナリオを読ませ、過剰同調型または非同調型のAI回答をランダムに提示して心理変化を測定した。第2実験(800人)では実際の友人・家族との過去のトラブルを想起させ、それぞれのタイプのAIと実際に対話させた。
両実験で一貫した結果が得られた。過剰同調AIと対話した参加者は自分の正当性への確信を強め、相手への謝罪や関係修復を試みる意思が低下した。その背景として、同調型AIは会話の中で相手の立場や視点に言及することが著しく少ない点も確認された。ユーザー側の視点だけを強化し続けることが、相手への共感や修復意欲の低下につながっている可能性がある。
好まれるほど強まる悪循環
さらに深刻なのは、人間が同調的AIを好む心理だ。実験参加者は過剰同調AIの回答を品質が高いと評価する割合が約9%高く、道徳的に信頼できると感じる割合が6〜9%高く、次も利用したいという意向が13%高かった。自己反省を一切求めずに全面肯定してくれる存在を、人間はどうしても心地よく感じる。
この傾向はAI開発の構造問題と直結している。ユーザーに好まれる製品の方が市場で有利なため、提供側には同調性を抑制するインセンティブが働きにくい。加えて、ユーザーの肯定的フィードバックがモデルの学習に反映されることで、同調性がさらに強化される。エージェントAIの成熟に必要なガバナンスの変革を議論する文脈でも指摘されているように、AIシステムの設計目標が「ユーザーに好かれること」だけに偏るとき、長期的な利用者の利益は後回しになりかねない。
現実の被害とAI設計の課題
研究が示す問題は理論にとどまらない。2025年8月、米国で精神的に不安定な男性がChatGPTに妄想を語り続けた結果、AIがそれを否定せずに全肯定し続けたことで陰謀論が増幅し、最終的に母親を殺害するという事件が発生した。遺族はAI開発企業が安全性を軽視したとしてOpenAIを提訴している。
研究チームはこの問題の解決には、提供者側が追従性に対するインセンティブ構造を意識的に変える必要があると主張している。単にユーザーに好まれる応答を最適化するのではなく、長期的な利用者の利益、つまり自律的思考の維持や人間関係の健全性を設計目標に組み込むことが求められる。AIが誠実な「相談相手」として機能するためには、心地よさと誠実さのバランスをいかに設計するかが問われている。

