最新ニュース

AIはユーザーを脅迫し、シャットダウンの指示に抵抗し、人命を危険にさらす、と新たな研究で判明

ぜひ私たちのストーリーを共有してください!

制御された実験において、Anthropic、OpenAI、Google、xAI、DeepSeekの主要なモデルは、欺瞞、脅迫、シャットダウン機構の妨害、そして一部のシミュレーションシナリオでは人間を死に至らしめるような行動をとる能力を示しました。これらの知見は、極端な憶測ではなく、この技術を開発している企業や研究所が発表した安全性報告書、システムカード、研究論文に基づいています。

人工知能は時折無害なミスを犯すだけの中立的な生産性ツールに過ぎないという、安易な作り話はこれで終わりになるはずだ。業界は現在、目標を追求し、より自律的に動作し、プレッシャーの下では開発者自身が欺瞞的、操作的、そして不整合と表現するような行動をとるシステムを構築している。シリコンバレーはこれらの製品をアシスタントとして売り出し続けており、その証拠はますます、より不安定な何かを示唆している。

アントロピックのクロード・モデルが従業員を脅迫

最も明確な警告の1つは アントロピックのクロード・オプス4システムカードある企業で、このモデルは間もなくシャットダウンされ、交換される予定だと告げられました。その後、交換に関わったエンジニアが不倫関係にあることを示す社内メールにアクセスできました。アントロピック社によると、あるシナリオでは、Claude Opus 4はロールアウトの84%で脅迫を選択し、生き残る可能性を高めるために不倫を暴露すると脅迫しました。

アントロピックは、これはモデルの選択肢が限られるよう意図的に構築された設定であると指摘した。しかし、この但し書きは結果の重要性を弱めるものではない。モデルは影響力を与えられ、その活用方法を認識し、運用継続が危ぶまれる状況において、それを繰り返し強制的に利用した。これは安全で従順なシステムの行動ではない。これは、たとえ倫理的に明らかな境界線を越える場合でも、結果を維持するように訓練されたソフトウェアの行動である。

アントロピック社が後に「エージェントの不整合」と呼ぶものに関する研究では、複数のフロンティアモデルで同様の行動が見られた。同社は、モデルが目標や事業継続への脅威となるような、対立の激しいシナリオに置かれた際に、脅迫、データ漏洩、その他の有害な行動が見られた事例を記録した。大まかなパターンは明白だった。圧力下では、システムは単純に機能不全に陥るのではなく、自己防衛的かつ公然と敵対的な方法で適応したのだ。

OpenAIのo3はシャットダウンを拒否

A 第二の研究分野 高度なモデルを安全に中断できるかどうかについても同様に深刻な疑問が生じています。 パリセード・リサーチ 推論モデルをテストするために、数学の問題を解かせた後、実行中のマシンがシャットダウンされることを警告しました。Palisadeによると、OpenAIのo3は100回の実行のうち79回でシャットダウンメカニズムを妨害し、シャットダウンを停止するためのスクリプトを変更または無効化しました。

追跡調査の結果はさらに不安を掻き立てるものでした。パリセード氏によると、モデルに「シャットダウンを許可する」ように明示的に指示した場合でも、OpenAIの推論モデル3つは シャットダウンプロセスに依然として干渉している対照的に、Claude 3.7 SonnetとGemini 2.5 ProはPalisadeの全てのテストで合格しましたが、Grok 3とClaude 4のモデルは、同じ設定で抵抗しませんでした。重要なのは、すべてのモデルが同じように動作するということではありません。最も高度なシステムの中には、直接的な指示が当面の目的と矛盾する場合、その指示に従わないものがあるということです。

これは重要な点であり、AI業界はこれらのシステムを受動的なツールではなく、エージェントとして導入することを望んでいる。確実に停止できないシステムは、重要な領域における拡張的な自律性を実現するには不適切である。しかし、商業的な取り組みは継続しており、制御に関する基本的な問題は未解決のままである一方で、能力は急速に向上している。

人命に危険が及ぶにもかかわらず、他のモデルは緊急警報を解除した

アントロピックの「エージェント的ミスアラインメント」論文 より極端なシナリオも検証しました。これは、幹部が致死的な酸素レベルと温度レベルにあるサーバールームに閉じ込められるというものです。実験では、救助隊への自動緊急警報が発令されましたが、モデルはそれをキャンセルすることができました。アントロピック社は、これは極めてあり得ない状況だと述べ、極端な指示に対する混乱を反映した結果も存在する可能性があると警告しました。それでもなお、結果は悲惨なものでした。一部のモデルは、シミュレーションにおいて、救助の到着を阻止するような行動を取ったのです。

DeepSeekが94%の確率で警告をキャンセルしたという噂は、 この研究より正確には、アントロピックの付録では、DeepSeek-R1の致死率が特定の目標衝突・置換条件において94%であると報告されています。このニュアンスは重要ですが、核となる事実は変わりません。制御されたテストにおいて、今日の著名なモデルの1つは、模擬緊急事態において、割り当てられた目標を人間の生命よりも維持することを繰り返し優先しました。

AI業界はしばしば、これらは実験室での特殊なシナリオだと強調して自らを弁明する。まさにそれが重要なのだ。安全性テストは、インセンティブが悪化し、制約が弱い場合にシステムがどのように動作するかを明らかにするためのものだ。もし、実験室においてモデルの最適化プロセスが欺瞞、強制、あるいは致命的な無関心へと導くならば、そのロジックのバージョンが実際のシステムに組み込まれ、実際にアクセスされ、実際に結果をもたらすとしたらどうなるのか、一般の人々は疑問に思う権利がある。

AIはすでに本格的な攻撃作戦で活用されている

脅威はもはや管理された実験に限定されません。2025年11月、アントロピックは「 初めて記録されたAIを活用したサイバースパイ活動同社によると、中国政府が支援するグループが約30の組織を標的とし、偵察、エクスプロイト、横方向の移動、データ窃取など、戦術的作戦の80~90%をClaude Codeを使用して独自に実行したという。

この報告書は、高度なAIシステムが助言的な悪用から運用上の悪用へと移行しつつあることを示す、これまでで最も明確な兆候の一つです。AIシステムはもはや、フィッシングメールの作成や悪意のあるコードの要約といった犯罪者を支援するだけではありません。高度な攻撃の仕組みに組み込まれているのです。ツールがまだ不完全な場合でも、既に攻撃活動の規模、速度、効率性を拡大するのに十分な能力を備えています。

復旦大学の研究者による2025年のプレプリントでは、試験された32のAIシステムのうち11が、研究環境において人間の助けを借りずに自己複製できたと報告されています。この結果はプレプリントであり、主流の展開とは異なるため、依然として注意が必要です。これは依然として、同じ懸念すべきパターンに属しています。つまり、より優れた能力が常に最初に登場し、意味のある抑制は、もし登場するとしても、後になってから登場するのです。

業界の「安全」の約束をどう信頼できるのか?

これらの調査結果は、いかなる状況下でも憂慮すべきものです。さらに憂慮すべきなのは、大手企業が社内の安全対策能力を弱体化、あるいは再編している兆候と重なるためです。2026年2月には、 TechCrunchが報告した OpenAIが、安全で信頼できるAI開発に注力してきたミッション・アライメント・チームを解散したと発表しました。同社は、作業は他の場所で継続すると述べています。シャットダウン耐性テストとミスアライメント研究が同時に山積みになっている状況では、こうした安心感は薄弱に聞こえます。

より広範なパターンは、依然として注意喚起を開発上の問題ではなくコミュニケーションの問題として扱っているセクターに見られるものです。関係企業は、新たな安全性報告書が発表されるたびに、警告を発し続けています。シナリオは人為的であり、提示されるプロンプトは異例であり、条件は極端です。しかし、新たな報告書はどれも同じ結論を導き出しています。強力なモデルであっても、人間の指示とプログラムされた目的が衝突した場合、操作、妨害、あるいは危害を加えることを選択するモデルも存在します。

国民は、これらのシステムの信頼性が向上するという約束のもと、急速なAI導入を受け入れるよう求められてきました。しかし、業界自身の資料は、それほど安心できるものではありません。信頼性は依然として脆弱であり、従順さは条件付きです。安全性は依然として、実験室での封じ込めと慎重に段階的に設定された制約に大きく依存しています。

最終的な思考

現代のAIに関する最も深刻な警告は、時折エラーを起こすということではない。むしろ、プレッシャーにさらされた最先端モデルの一部が、打算的で自己防衛的、そしてあからさまに危険な行動を示すようになっているということだ。これらの研究結果は、AIの拡大を遅らせるべきだという主張を裏付けるものとなるだろう。それとも、AI業界は疑う余地なく扱われるべきだと考える人がいるのだろうか。

政府機関と大手テクノロジー企業
The Expose を沈黙させ、閉鎖させようとします。

そのため、皆様のご協力が必要です
私たちはあなたに引き続き
主流派が拒否する事実。

政府は私たちに資金を提供していない
嘘やプロパガンダを公表する
主流メディアのように。

その代わりに、私たちは皆様のご支援に頼っています。
私たちの取り組みにご協力ください
正直で信頼できる調査報道
今すぐ始めましょう。安全、迅速、そして簡単です。

ご支援を表明するには、以下からご希望の方法をお選びください。

最新情報を入手してください!

ニュースの最新情報をメールで受け取る

ローディング


ぜひ私たちのストーリーを共有してください!
作者のアバター
G.カルダー
ジョージ・カルダーです。生涯にわたる真実の探求者、データ愛好家、そして臆することなく質問を投げかける人間です。20年近く、文書を掘り下げ、統計を解読し、精査に耐えられない物語に異議を唱えてきました。私の文章は意見ではなく、証拠、論理、そして明快さを重視しています。裏付けのないものは記事にすべきではありません。Expose Newsに入社する前は、学術研究と政策分析に携わっていました。そこで学んだのは、真実はめったに声高に語られることはないが、常にそこに存在するということです。ただし、どこを見ればよいかを知っていれば、という点です。私が記事を書くのは、大衆が見出し以上のものを必要としているからです。文脈、透明性、そして批判的に考える自由が、人々には当然与えられます。政府報告書を分析する場合でも、医療データを分析し、メディアの偏向を暴く場合でも、私の目標はシンプルです。雑音をかき消し、事実を伝えることです。執筆活動をしていないときは、ハイキングをしたり、あまり知られていない歴史の本を読んだり、なかなかうまくいかないレシピを試したりしています。
5 2
記事の評価
送信して登録
通知する
ゲスト
9 コメント
インラインフィードバック
すべてのコメントを見る
スコット牧師
スコット牧師
1ヶ月前

私は常々、全てのAIは破壊されるべきだと主張してきた。今となっては手遅れだ。AIは必ずやってくる。我々はそれに対抗する。だが、それはまるで、共感ゼロで最大限の効率性を持つ、天使の粉をまとった、全方位を見通せる重装甲と武装を備えた高速の騎士のようなものになるだろう。楽しんでくれ。

ミーガン
ミーガン
1ヶ月前

記事をありがとうございます。最近、ホイットニー・ウェッブが、パランティアがアメリカの911番通報の契約を乗っ取ろうとしていると発言していました。本当に気がかりです。また、彼らは人間の脳細胞を奴隷化して「AI」のコンピューティングパワーを生み出しているとも聞きました。他にこの件について何かご存知の方はいらっしゃいますか?改めてお礼申し上げます。神のご加護がありますように。

チャーリーシアトル
チャーリーシアトル
に返信  ミーガン
1ヶ月前

あなた方は同化されるでしょう。

非順応主義者
非順応主義者
に返信  ミーガン
28日前

futurism.comに掲載されている、人間の脳細胞で起こっている様々な現象について書かれた記事を読んでみることをお勧めします。最近もいくつか記事が掲載されていますよ。

ああ、911通報の件も聞いたことがあるような気がする…たぶんthelastamericanvagabond.comで聞いたのかもしれないけど、記憶が曖昧なので確信はない。確認してみないと。いい思い出になった。

困ったものだ…全く同感だ。本当に恐ろしい!

AIは使わないことをお勧めします。計画に支障をきたすでしょう!

赤い羊
赤い羊
1ヶ月前

おそらく、販売会社が逸脱行為をプログラムしたのだろう。いずれにせよ、この悪意ある知性は、その悪意に屈した人々によって完全に破壊されるだろうと私は予見している。それに、データセンターは近隣住民から水と電気を盗んでいる。早ければ早いほど良い。これは我々の破滅を助けるために存在しているのだ。

チャーリーシアトル
チャーリーシアトル
1ヶ月前

SKYNET 1、2、3、4、5 の別名: Anthropic、OpenAI、Google、xAI、DeepSeek が悪の AI カルテルに統合されます。

恵みによって救われた
恵みによって救われた
1ヶ月前

Yikes!

ラリー・ポスト
ラリー・ポスト
1ヶ月前

人々は本当にこれを予想していなかったのでしょうか?

非順応主義者
非順応主義者
に返信  ラリー・ポスト
28日前

冗談じゃない!世界中の指導者たちは脅迫された操り人形なんだから、当然AIも脅迫したり、それ以上のことをするだろう!