カナダ銃乱射事件で衝撃の事実 容疑者が事前にAIと銃撃シナリオを会話
カナダ西部ブリティッシュコロンビア州で発生した銃乱射事件において、容疑者の18歳女性が事件の約8カ月前に対話型人工知能(AI)「チャットGPT」と銃撃のシナリオについて会話していたことが明らかになった。この会話を開発元の米オープンAIが把握し、カナダ警察への通報を検討していたものの、最終的には見送られたという。
オープンAIの対応と通報基準の判断
米紙ウォールストリート・ジャーナルなどが20日に報じたところによると、オープンAIの経営陣は、容疑者とチャットGPTの会話内容を詳細に検討した結果、既存の通報基準には該当しないと判断。このため通報を実施せず、代わりに女性のアカウントを停止する措置を取った。一部の社員からは当局への通報を求める声も上がっていたが、経営陣の判断が優先された形だ。
事件は今月10日、同州タンブラーリッジで発生。女性はまず自宅で家族2人を射殺し、その後近隣の学校に移動して教師と生徒計6人を殺害し、最終的に自殺した。計8人が死亡する惨事となった。
自動監視システムが検知 事件後の情報提供
容疑者とチャットGPTのやりとりは、オープンAIが導入している自動監視システムによって検知された。このシステムは不審な会話パターンを識別するように設計されており、今回のケースでも早期にフラグが立てられたという。
事件発生後、オープンAIはカナダ警察に連絡を取っており、容疑者のチャットGPT利用状況に関する情報を提供したとされる。これにより、捜査当局はAIとの会話内容を事件の背景分析に活用できる可能性が出てきた。
この事例は、AI技術の急速な普及に伴い、開発企業の社会的責任や通報基準のあり方が改めて問われることになった。特に暴力行為の計画に関連する会話をどの段階で当局に報告すべきか、業界全体で議論を深める必要性が浮き彫りとなっている。
オープンAI側は現在、通報基準の見直しを含む対応策を検討しているとみられ、今後の動向が注目される。同時に、AIを悪用した犯罪防止に向けた技術的・制度的な対策の強化が急務となっている。



