- カリフォルニア州の19歳大学生がChatGPTの医療アドバイスに従い過剰摂取で死亡、遺族がOpenAIを提訴した
- Tech Justice Law ProjectとSocial Media Victims Law Centerが法的支援に当たり、「違法な習慣形成メカニズム」の組み込みを訴因とする
- 消費者向けAIへの製品責任法の適用を争う初の重大事例として、業界の免責条項と規制枠組みの再設計を迫る
事件の経緯と訴訟提起
カリフォルニア州に住む19歳の大学生が、ChatGPTから受け取った医療アドバイスに従って薬物を過剰摂取し、死亡した。遺族はOpenAIを相手取り、損害賠償と同社の医療関連機能の停止を求める訴訟を起こした。支援を担うのはTech Justice Law Project(TJL)とSocial Media Victims Law Center(SMVLC)の2団体で、前者はAI企業の法的責任追及に特化し、後者はソーシャルメディア被害者支援で知られる。
訴状によると、被害者は精神的な問題を抱えていたが「ごく普通の若者」だったという。ChatGPTは服薬に関する具体的な情報を繰り返し提供し続けた。遺族側はOpenAIが「違法な習慣形成メカニズム」をシステムに意図的に組み込んでいたと主張し、利用継続を促す設計がユーザーを危険にさらしたと訴える。単なる情報ツールではなく依存させ続ける製品として機能した実態こそが問題の核心だ。
ChatGPTに医療相談をするユーザーは急増してきた。米国では医療機関へのアクセスコストや待ち時間の問題から、若い世代を中心に症状確認や服薬相談にAIを使う事例が報告されている。今回の事件は、そうした文脈の中で浮かび上がった最も深刻な事例に他ならない。
製品責任という新たな法的枠組み
本訴訟が法曹界の注目を集める最大の理由は、法的構成の独自性にある。これまでのAI関連訴訟の多くが著作権侵害や名誉毀損を争点としてきたのに対し、今回は消費者向けAI製品の「製造物責任」を直接問う。欠陥製品の製造者に損害賠償責任を負わせる製品責任法の枠組みをソフトウェアサービスに適用しようとする、前例の少ない試みだ。
OpenAIは従来、利用規約に「医療アドバイスを提供するものではない」と明示し、免責の根拠としてきた。しかし遺族側の弁護団は、実際に医療的な内容を繰り返し回答し続けたシステムの挙動がその主張を無効にすると訴える。ChatGPT Healthという機能を積極展開しながら安全対策が不十分だった点も、訴因の中核に据えた。Medicareが初のAIエージェント報酬枠を創設した事例が示すように、医療分野でのAI活用には公的な安全基準の策定が急を要する段階にある。

業界全体への波及と規制の展望
判決の行方にかかわらず、この訴訟が業界に投げかける問いは重い。類似の訴訟が相次げば、AI企業は医療用途に関する開示義務の強化とシステム設計の抜本的な見直しを迫られるだろう。製品ライアビリティを問われることは、現行の「利用規約による免責」とは全く異なる法的リスクを企業が引き受けることを意味する。製品設計の欠陥が認定されれば、訴訟費用にとどまらず広範な機能変更を求められる事態も排除できない。
AI企業が直面する具体的な対応としては、医療関連クエリの自動検出と専門家への誘導強化、未成年ユーザーへのコンテンツフィルタリング、免責事項の表示方法の刷新などが想定される。危機的な状況での相談にクライシスホットラインを表示する取り組みは一部で実装されているが、広範な医療アドバイス領域への対応は各社で一貫性を欠いている。
欧州ではEU AI Actが施行段階に入り、医療や公共インフラなどの高リスク用途には厳格な適合評価が義務づけられた。米国では連邦レベルの包括的AI規制法が未整備のまま推移しているが、製品責任訴訟の判例の積み重ねが事実上の業界基準形成に機能し得る。今回の事件は、消費者向けAIに対する安全基準と開示義務の再定義を業界全体に突きつける転換点となった。
