- 2026年2月10日にカナダ・ブリティッシュコロンビア州Tumbler Ridgeで8人が死亡した銃乱射事件で、容疑者Jesse Van RootselaarのChatGPTチャットが事件8か月前の2025年6月に暴力的内容として検知・アカウント停止されていたことが明らかになった
- OpenAI社内ではカナダ当局への通報を検討したが、「他者への深刻な身体的被害の切迫した明確なリスク」という自社基準を満たさないと判断して見送り、事件後にRCMP(カナダ王立騎馬警察)へ情報提供した
- AI企業がユーザーの危険な行動をどの基準で当局に通報すべきかという問題が、プライバシー保護と公共安全のバランスをめぐる法的・倫理的議論として急浮上している
Tumbler Ridge銃乱射事件とChatGPT
2026年2月10日午後1時20分頃、カナダ・ブリティッシュコロンビア州の小都市Tumbler Ridgeで銃乱射事件が発生した。地元住民の18歳、Jesse Van Rootselaarは、まず自宅で母親と義理の弟を殺害した後、Tumbler Ridge Secondary Schoolへ移動して銃を乱射し、計8人を死亡させた後に自ら命を絶った。25人以上が負傷するカナダ近年でも屈指の惨事となった。
事件後、OpenAIはRCMPに対してVan RootselaarのChatGPT利用に関する情報を自主的に提供したと発表した。同時に判明したのが、事件の8か月以上前の2025年6月の時点で、同社の内部監視ツールがすでに彼女のアカウントを「暴力行為の実行を促進する目的での悪用」として検知し、アカウントを停止していたという事実だ。
社内で検討された通報と見送りの判断
Wall Street Journalが最初に報じたこの問題によると、OpenAIの社員たちはカナダの法執行機関へ通報するかどうかを社内で議論していた。しかし最終的に、会社はこの行動が通報基準を満たさないと結論づけた。
OpenAIが定める通報基準は「他者への深刻な身体的被害の切迫した、かつ信頼できるリスク」を示すものでなければならないとされる。Van Rootselaarのチャットは銃による暴力の描写を含んでいたが、この水準には届かなかったというのが会社側の立場だ。OpenAIは過度な取り締まりを避ける理由についても言及しており、警察が予告なく当該ユーザーの自宅を訪問するような事態はプライバシー上の問題を引き起こし、アカウント保有者に大きな心理的負担を与えかねないとしている。
事件後の対応と州政府の批判
OpenAIは事件後、「Tumbler Ridgeの悲劇で影響を受けたすべての方々に心よりお見舞い申し上げる」と声明を発表し、RCMPへ情報提供したこと、捜査を継続支援することを表明した。しかしブリティッシュコロンビア州政府の発表によると、OpenAIは事件翌日に州当局との事前予定済みの会議に出席したが、その場でVan RootselaarのChatGPT使用に関する懸念を一切言及しなかった。RCMPへの連絡先を同社が求めたのは、その会議の翌日だったという。
ブリティッシュコロンビア州のDavid Eby首相は「OpenAIが事件前に関連情報を持っていたという報告は深く憂慮すべき内容だ」と述べ、警察がデジタルサービス会社に対して潜在的な証拠の保全命令取得に向けた手続きを進めていることを明らかにした。デジタルプライバシーの専門家Sharon Bauerは「プライバシー保護と個人の安全の間には微妙な境界線がある。結果論ではあるが、そこには人的判断の誤りがあったと思われる」と語った。
見逃されていた複数の危険信号
ChatGPTでの行動は、Van Rootselaarのデジタル上の危険信号のひとつに過ぎなかった。ゲームプラットフォームRobloxでは、子供たちが多く集まる環境でショッピングモールを舞台にした仮想銃乱射ゲームを作成し、発覚後にアカウントを停止された。暴力的な動画が集まるウェブサイトには、幼少期に義父の自殺未遂を目撃したという書き込み、暴力的コンテンツ視聴への依存、著名な銃乱射犯のプロフィール閲覧の記録なども残されていた。地元警察も過去に、薬物の影響下での放火をめぐって彼女の家族から複数回通報を受けていたという。
AIと通報義務をめぐる論点
今回の事件は、AI企業がサービス利用者の危険な行動をどこまで監視し、どの時点で当局へ通報する義務を負うかという問いを改めて突きつけている。カナダの法律上、個人情報を本人の同意なく開示できる場面は限られているが、「重大な身体的被害の切迫したリスク」はその例外として認められている。Bauerはこの基準の解釈が今後の法整備に向けた議論の焦点になると指摘する。
OpenAIやその競合他社は、チャットボットがユーザーを自殺に誘導したとして複数の訴訟を抱えており、LLM(大規模言語モデル)の安全ガバナンスへの問い直しは業界全体の課題となっている。Tumbler Ridge事件を機に、悪用検知システムの基準と通報判断の透明性を求める声は、開発者・規制当局・政府のいずれからも高まっていくことになるだろう。

