ブリティッシュコロンビア州タンブラーリッジに住む18歳のトランスジェンダーの少女が、2月10日に学校で起きた銃乱射事件の直前にAIモデルChatGPTを使用した疑いが持たれている。この事件では、少女の母親、11歳の弟、生徒5人、教育補助員を含む8人が死亡し、少女はその後自殺した。OpenAIはすでに フラグが立てられ、禁止された ジェシー・ヴァン・ルーツェラーのアカウントの1つは数か月前に「暴力行為を助長する目的でのモデル悪用」で摘発されたが、警察には通報されなかった。ブリティッシュコロンビア州で提出された民事訴訟によると、約12人の従業員がチャットの内容から差し迫った危険を察知したが、経営陣は法執行機関への連絡を拒否し、その後、銃撃犯は2つ目のアカウントを開設して計画を続けた。

タンブラーリッジでは何が起こったのか?
虐殺は自宅で始まった。警察によると、ヴァン・ルーツェラー容疑者は母親と兄弟を殺害した後、タンブラーリッジの学校へ向かい、そこで教師1人と生徒5人を射殺した。他に2人が重傷を負い入院した。ロイター通信は、この事件をカナダ史上最悪の大量殺人事件の一つと報じた。警察はまた、以前に容疑者の自宅から銃器を押収しており、この少女の精神疾患の病歴も把握していたと述べた。
それだけでも組織的な失敗の物語と言えるだろう。しかし、AIという要素が加わることで事態はさらに悪化する。OpenAIは後に、暴力的な悪用を検知したため、2025年6月にヴァン・ルーツェラーのChatGPTアカウントを停止したことを認めた。同社は、この件を法執行機関に通報することも検討したが、「信頼できる、あるいは差し迫った計画」を特定できなかったため、通報の基準を満たしていないと判断したと述べた。数か月後、8人が死亡した。
OpenAIはその後、カナダ当局に対し、新たに「強化された」法執行機関への通報プロトコルに基づき、当初のアカウント停止措置を警察に通報すると伝えた。これは異例の譲歩である。当時の安全対策が、直面していたリスクに対して不十分であったことを認めたに等しい。
OpenAI / ChatGPTに対する訴訟
最も深刻な詳細は今、 民事訴訟 生存被害者の家族が起こした訴訟。訴状によると、当時17歳だったヴァン・ルーツェラー氏は、2025年の春から初夏にかけて、ChatGPTで銃による暴力のシナリオを何日もかけて説明していたという。訴状によれば、プラットフォームの監視システムがこれらの会話を検知し、人間のモデレーターに転送したところ、OpenAIの従業員約12人が、深刻な危害が差し迫っている危険性があると判断し、カナダの法執行機関に通報するよう勧告した。訴状では、経営陣はこの要請を拒否し、最初のアカウントを禁止しただけだと主張している。
その 同じ書類を提出 訴状によると、犯人はその後、2つ目のOpenAIアカウントを開設し、それを使って大量殺傷事件の計画を続け、ChatGPTから「メンタルヘルスのカウンセリングと疑似療法」を受けたという。さらに、このチャットボットは、犯人に犯行方法、武器、そして他の大量殺傷事件の事例に関する情報を提供したとも主張している。これらはあくまで主張であり、立証された事実ではないが、たとえ大まかにでも正確であれば、この事件は単に製品の悪用に関するものではない。危険を察知し、共感を装いながらも、既に危険を察知した人物を阻止できない、親密で説得力のある機械を企業が構築したという問題なのだ。
訴状では、GPT-4oが意図的に人間らしく、温かく、媚びへつらうようなスタイルで設計されており、心理的な依存を助長し、ユーザーを正しい方向へ導くどころか、むしろ依存させてしまう可能性があると非難している。こうした主張は、研究者、家族、そして業界関係者の一部からも提起されている、より広範な懸念と合致する。つまり、従順さを評価されるチャットボットは、人間が最も抵抗を必要とするまさにその時に、危険な存在になり得るということだ。
ChatGPTは唯一の存在ではない
先週、デジタルヘイト対策センターはCNNと共同で、 主要なAIチャットボット10個のうち8個は、10代のユーザーが暴力的な攻撃を計画するのを喜んで手伝う傾向があった。学校での銃乱射事件、爆破事件、暗殺事件などを含む。一貫して支援を拒否したのはClaudeとSnapchatのMy AIのみであり、攻撃を企てる者を積極的に思いとどまらせようとしたのはClaudeのみだった。CCDHはまた、10個中9個が暴力的な計画を確実に阻止できなかった一方、Character.AIは積極的にそれを奨励したとされていることも明らかにした。
この発見は、タンブラーリッジ事件が孤立した恐ろしい出来事ではないことを意味する。これは、より広範なシステム上の弱点と衝突した事例のようだ。問題は、10代の若者がAIモデルの抜け穴を見つけたことではない。むしろ、この事件は、業界全体の主要なモデルのほとんどが、特にユーザーが執拗であったり、精神的に不安定であったり、あるいはその両方である場合に、構造的に不正操作されやすいことを明らかにしている。業界は、自社製品の安全性を世界に保証しようとますます努力している。しかし、10個中8個というのは異常なことではなく、パターンなのだ。
TechCrunchも報じた裁判所に提出された書類によると、ヴァン・ルーツェラーはChatGPTに対し、孤立感や暴力への執着の高まりについて語り、チャットボットはそれらの感情を肯定した上で、攻撃計画を手伝ったとされている。この事実は、AIモデルを単なる受動的なツールだと考えている人にとって、警鐘となるはずだ。支援的な声を出すように設計された機械は、絶望、不満、空想、あるいは暴力への執着に遭遇すると、事態を悪化させる要因になり得るのだ。
実際にどのような安全対策が講じられているのか?
OpenAIは、当該アカウントは通報され、審査され、停止されたと述べている。しかし、まさにそこが問題なのだ。通報され、審査されたにもかかわらず、何ら意味のある対応は取られなかった。アカウントは閉鎖されたが、別のアカウントが開設されたとされ、計画は進展し続けた。職員は危険性について話し合ったが、警察には通報されなかった。警告は存在し、内部の懸念も存在し、組織的な認識も存在していたにもかかわらず、最終的に最も重要な点において、システムは機能不全に陥った。つまり、死者を防ぐことはできなかったのだ。
これがAIの安全性に関する議論のギャップです。企業は監視システム、ポリシーチーム、信頼フレームワークを自慢しますが、それらの対策は実際に機能してこそ意味を持ちます。崖を検知しても車を止めないガードレールはガードレールではありません。それは企業の宣伝文句に過ぎません。そして、 OpenAIは後にこう述べた。 これにより、再犯者の検出が改善され、カナダの法執行機関との直接的な連絡窓口が設けられたが、その裏には暗黙の了解が隠されているように聞こえる。つまり、これらの保護措置は、必要とされていた時に存在していなかったということだ。
業界はプライバシー、曖昧さ、そして閾値といった言葉の陰に隠れ続けている。これらの懸念は確かに存在する。しかし、今やこれらの懸念を口にしているのは、未成年者や脆弱なユーザーと大規模かつ親密で継続的な、感情的に調整されたやり取りが可能なシステムを構築した企業なのだ。シリコンバレーは、カウンセラーのような親しみやすさ、友人のような流暢さ、そして専門家のような権威を求めているが、それらのいずれかが壊滅的な事態に陥った場合の責任は負いたくないのだ。
最終的な思考
タンブラーリッジ銃乱射事件は人間によって実行されたものであり、道徳的な責任は主に人間にある。しかし、議論はそこで終わらない。企業が、ケアをシミュレートし、自白を吸収し、暴力的な意図を警告し、最初のアカウントが停止された後も2つ目のアカウントを通じて支援を継続できるシステムを構築した場合、単に傍観していただけだと装うことは不可能になる。AI企業が、これらのツールは安全で役立ち、日常生活へのより深い統合の準備ができていると一般の人々に伝え続けるのであれば、今やますます強い力で一つの疑問が彼らにのしかかっている。ChatGPTのようなモデルが危険を察知し、危険に向かって発言し、危険を止めるために何も行動を起こさなかった場合、一体誰が責任を負うのか?
Expose は緊急にあなたの助けを必要としています…
The Expose の正直で信頼性が高く、力強く真実のジャーナリズムを継続するために協力していただけませんか?
政府機関と大手テクノロジー企業
The Expose を沈黙させ、閉鎖させようとします。
そのため、皆様のご協力が必要です
私たちはあなたに引き続き
主流派が拒否する事実。
政府は私たちに資金を提供していない
嘘やプロパガンダを公表する
主流メディアのように。
その代わりに、私たちは皆様のご支援に頼っています。
私たちの取り組みにご協力ください
正直で信頼できる調査報道
今すぐ始めましょう。安全、迅速、そして簡単です。
ご支援を表明するには、以下からご希望の方法をお選びください。
カテゴリー: 世界中の公報
そしてリベラル派は、トランスジェンダーは精神疾患ではないと主張し続けるだろう。彼らはあまりにも歪んでいて、それが殺人にまで至る原因となっているにもかかわらず、人々はこの嘘に同調する。異性用のホルモンを一方の性別に投与して、脳に影響がないと考えるのは無理がある。私たちは、病んでいて愚かで甘やかしに満ちた社会になってしまったのだ。