知ってますか?

AIは自らを食い尽くす。狂牛病のようなものだ。テクノロジー業界関係者は開発の加速を懸念していない

ぜひ私たちのストーリーを共有してください!

人工知能(AI)が現代生活のあらゆる隅々に浸透するにつれ、依然として支配的な論調は避けられないというものです。よりスマートなモデルと完全な自動化により、多くの人は、ほぼあらゆる面で人間を上回る機械によって作り変えられる未来へと突き落とされていると感じています。しかし、テクノロジー業界関係者の間では、この軌道は健全でも持続可能でも必然でもないという、異なる見解がますます高まっています。ロックスター・ゲームズの共同創業者であるダン・ハウザー氏は最近、現在のブームを狂牛病に例え、AIは自己増殖するシステムであり、最終的には根本的に不安定になると述べました。これは、一部の人にとって安心材料となるかもしれない、より深い疑問を提起する挑発的なアナロジーです。AIに出現している欠陥は、修正すべきバグではなく、このテクノロジーが真に「世界を制覇」することを妨げる構造的な限界だとしたらどうでしょうか? 

AIは狂牛病のように自らを蝕む 技術関係者が暴露する脆弱性 開発は懸念していない

狂牛病のアナロジー: AI は自分自身を食べているか?

ハウザー氏の比較は、特定の歴史的教訓に基づいています。狂牛病は、牛が他の牛の残骸を加工して与えられたことで蔓延し、劣化した生物学的物質の閉ループを形成し、最終的に壊滅的な神経障害を引き起こしました。彼の主張は、人工知能は無敵になり世界を征服するのではなく、実際には同様のパターンに陥りつつあるということです。モデルは、人間が作り出した知識ではなく、以前に他のAIシステムによって生成された合成出力に基づいて学習することがますます増えています。 

本質的には、自動化モデルが成長し続けるにつれて、インターネット上で目にするものの多くが同じシステムによって生成されるようになります。つまり、新規モデルと既存モデルがさらに学習するにつれて、実際には自身の出力を消化しているだけなのです。研究者たちはすでに、 モデルの崩壊AIが生成したデータで繰り返し学習した生成システムは、時間の経過とともに精度、多様性、現実離れ度を増していきます。知能が蓄積されるどころか、システムは空洞化し、元々の誤りを強化し、ニュアンスを平坦化させてしまうのです。 

テクノロジーリーダーが語らない、深刻化する問題

一般向けのAIマーケティングは、規模、つまりデータの増加、統合の強化、パラメータの増加に重点を置いています。しかし、人間が作成した高品質なトレーニング教材の不足は、あまり語られていません。オープンインターネットの多くは既に既存のモデルに取り込まれており、残されたコンテンツはスパム、自動生成ノイズ、その他のAIコンテンツによってますます汚染されています。 

芸術、推論、文章、そして真の生活経験といった、継続的に更新される人間のインプットにアクセスできない大規模言語モデルは、停滞や退行の深刻なリスクにさらされています。皮肉なことに、自動化されたコンテンツがウェブに溢れかえるほど、ウェブは学習ソースとしての信頼性が低下します。 

ハウザー氏の批判は、技術的なアーキテクチャだけにとどまらない。AIの完全導入を最も強く推進する人々は、往々にして知的・文化的コストから切り離され、適切な理解よりも効率性を優先していると彼は主張する。彼自身の言葉を借りれば、こうした経営幹部は「多角的な人間ではない」ため、意思決定の場において視野を狭めているのだ。 

ビデオゲームがAIについて教えてくれること

ハウザー氏が共同設立したロックスター・ゲームズは、風刺、文化的な質感、そして全般的な創造性といった、人間が作り出す複雑さによってその名声を築いてきました。これらはまさに、生成AIが説得力のある再現に苦労している要素です。  

モデルは会話、テクスチャ、コードスニペットを生成できますが、意味、動機、結果といった内的な感覚を欠いています。これらはストーリーテリングや世界構築に不可欠な要素であり、ゲーム開発者は実用上、AIの限界に長い間直面してきました。これはより広範な問題を浮き彫りにしています。AIは形を模倣することはできますが、文脈を理解しません。AIは何を予測できるのでしょうか? すべき 次は来るが、 現在も将来も、 それは絶対に次に来るはずです。 

同じ警鐘を鳴らす人々

ハウザー氏は、同様の意見を表明する懸念を抱くテック企業の幹部のほんの一例に過ぎない。彼らはしばしば、AIシステムは脆弱で、過大評価されており、知能の本質とは根本的に乖離していると警告している。 本当に 作品。  

自信に満ちているが誤った出力はしばしば「幻覚」と呼ばれます。これは、これらのシステムが実際には機能していないことを示す兆候として機能します。 知っています 人間的な意味でのあらゆるもの。また、モデルの規模が大きくなるにつれて、エネルギーコストの高騰、データのボトルネック、そして収益の減少といった懸念もあります。力ずくのスケーリングや可能な限り急速な拡張は、実際には経済的にも物理的にも限界に近づいているという噂も広まっています。 

おそらく安心できることだが、超知能の暴走に対する恐怖は、差し迫った脅威というよりは、文化の均質化、誤情報、人間のように機能することは決してできないシステムへの組織的な過度の依存といった本当のリスクから目をそらすためのもののように見え始めている。 

こうした AI の制限は良いことなのでしょうか?

この構造的な弱点こそが、まさに破滅を防いでいるのかもしれない。AIシステムが人間の入力から切り離されると劣化するのであれば、自律的な知能を持つ存在になることは決してない。AIシステムは人間の創造性と判断力に寄生し続け、その依存は、人間の制御を超えて機械が自律的に自己改善していくという、SFでよく見られるイメージを揺るがすことになる。 

その意味では、AIは代替というよりはむしろ増幅装置のようなものかもしれません。強力なツールになり得ますが、根本的に制約があります。社会に既に存在するパターンを加速させることはできるかもしれませんが、それ自体で意味や倫理、目的を生み出すことはできません。 無害のしかし、それは現れ始めている 限られました

その背後にある本当のリスク

この場合、最も深刻な危険はAIそのものではなく、むしろ組織がAIにどう対応するかという点です。企業、メディア、そして政府でさえ、正確性が不確かな場合であっても、AIの出力を権威あるものとして扱う傾向が強まっています。これは時間の経過とともに、人間の専門知識、説明責任、そして批判的思考を低下させています。 

例えば、AIが生成した情報が法律、ジャーナリズム、教育、政策などにおいてデフォルトの参照基準となれば、誤りは単発的なミスではなく、システム全体の欠陥として認識されるようになる。これこそが真の「狂牛病」リスクである。機械が反抗するリスクではなく、フィードバックループが崩壊するまで人間が判断をアウトソーシングしてしまうリスクである。  

ハウザー氏は、社会が自動化と知恵、スピードと進歩を混同しているのではないかと単純に疑問を呈している。 

最終的な思考

もしAIが本当に「狂牛病」の段階に入っているのであれば、機械による完全な支配という幻想や恐怖は説得力を失います。未来学者や警鐘を鳴らす人々を失望させるかもしれませんが、それ以外の人々にとっては安心材料となるはずです。  

未来には確かに人間の判断力、創造性、そして理解力が必要です。ハウザー氏のような議論に立つと、AIがすべての人に取って代わる危険性はなく、AIが世界を支配する可能性も低いでしょう。しかし、だからといって、その間に自動化モデルに過度に依存することで、私たちが自発的にAIを放棄してしまう可能性がないわけではありません。 

政府機関と大手テクノロジー企業
The Expose を沈黙させ、閉鎖させようとします。

そのため、皆様のご協力が必要です
私たちはあなたに引き続き
主流派が拒否する事実。

政府は私たちに資金を提供していない
嘘やプロパガンダを公表する
主流メディアのように。

その代わりに、私たちは皆様のご支援に頼っています。
私たちの取り組みにご協力ください
正直で信頼できる調査報道
今すぐ始めましょう。安全、迅速、そして簡単です。

ご支援を表明するには、以下からご希望の方法をお選びください。

最新情報を入手してください!

ニュースの最新情報をメールで受け取る

ローディング


ぜひ私たちのストーリーを共有してください!
作者のアバター
G.カルダー
ジョージ・カルダーです。生涯にわたる真実の探求者、データ愛好家、そして臆することなく質問を投げかける人間です。20年近く、文書を掘り下げ、統計を解読し、精査に耐えられない物語に異議を唱えてきました。私の文章は意見ではなく、証拠、論理、そして明快さを重視しています。裏付けのないものは記事にすべきではありません。Expose Newsに入社する前は、学術研究と政策分析に携わっていました。そこで学んだのは、真実はめったに声高に語られることはないが、常にそこに存在するということです。ただし、どこを見ればよいかを知っていれば、という点です。私が記事を書くのは、大衆が見出し以上のものを必要としているからです。文脈、透明性、そして批判的に考える自由が、人々には当然与えられます。政府報告書を分析する場合でも、医療データを分析し、メディアの偏向を暴く場合でも、私の目標はシンプルです。雑音をかき消し、事実を伝えることです。執筆活動をしていないときは、ハイキングをしたり、あまり知られていない歴史の本を読んだり、なかなかうまくいかないレシピを試したりしています。
5 3
記事の評価
送信して登録
通知する
ゲスト
9 コメント
インラインフィードバック
すべてのコメントを見る
イングリッド・C・ダーデン
イングリッド・C・ダーデン
1ヶ月前

全くその通りです。機械は、そこに投入されているもの以上の性能を発揮することはできないと私は考えています。そして、修理が必要です。人間が修理する必要があり、自己修復する機械は存在しないと思います。コンピューターが普及した頃、紙の記録は不要になると言われていました。しかし、コンピューターが故障すると、古き良きアドレス帳が依然として必要になります。

くの
くの

確かにそうですが、私たちは情報システムへの依存という真の問題を見逃しがちな傾向があるように思います。そこから、どんなに愚かで狂気じみていても、知能システムに権限が与えられているという現実が浮かび上がってきます。まさにその狂気こそが、システムが自滅するずっと前に私たちを滅ぼすのです。それは、システムが私たちを死に追いやりたいからではなく、怠惰な管理者がシステムに権限を与え、私たちがそれを受け入れているからです。「コンピューターはノーと言った」―「ええ、まあ、いいでしょう」。システムが人間が覆すことのできない決定を下すたびに、私たちは大きな問題に直面するのです。これはAIが登場するずっと前、おそらく1970年代にまで遡ります。例えば、私の叔母が口座で何も使っていないという理由で0ポンドの請求書を受け取り、会社から口座を閉鎖すると脅された時のことです。結局、唯一の回避策は、0ポンド0ペンスの小切手を送ることだけでした。もちろん、バグは修正されましたが、本当の問題は構造的なものでした。つまり、機械を満足させるためには、人間が機械の命令に従わなければならなかったのです。

ジョアン・ジェイコブ
ジョアン・ジェイコブ
1ヶ月前

企業や組織に電話をかけ、AIが質問に答えると、問題を解決するのはほぼ不可能です。ボットと論理的に議論することはできません。そして、最終的にはすべての中小企業にとって、問題を解決できる人間と話すことが不可能になるため、ますます困難になるでしょう。
これはすでに銀行や電話会社、電力会社といった生活必需サービスに問題を引き起こしています。自分の言っていることを理解してくれる人と話せないと、事態はさらに深刻になります。

チャーリーシアトル
チャーリーシアトル
に返信  ジョアン・ジェイコブ
1ヶ月前

ハブロはないの?

レベッカ・デンホフ
レベッカ・デンホフ
1ヶ月前

AIがHALになるなんて、ずっと疑っていました。私が疑っていないのは、人間がもっと楽な方法を探し、AIが劣化したアルゴリズムを吐き出して政府の意思決定を任せたら、どれほどずさんで犯罪的で不公平になるかなど気にも留めない怠惰さ、邪悪さ、無責任さです。特に司法制度や税制においては。官僚はたいてい、自らのOSも劣化している、イカれたリバタリアンです。彼らの数は減るかもしれませんが、AIとこんなくだらない連中の間で、国民の生活はかなり悲惨なものになるかもしれません。AIは常に、責任感があり、冷静で、高潔な人々による鋭い監督を必要とします。富裕層や権力者がほとんどが犯罪者であるような状況では、そんなことは起こりそうにありません。

Peter Bauman
Peter Bauman
1ヶ月前

より大きなリスクは、機械そのものではなく、それらを所有し運用する「テックブロス」と呼ばれる怪物階級の方にある。彼らの買収欲は、AIを通じたいわゆる創造性という袋小路に確かに反映されているが、真の脅威はそこにある。米国における反トラスト法の失敗は、巨大企業のネットワーク、ブラックロックなどが制御不能な独裁体制を確立しつつあることを示している。例えば、ティール/パランティア、そしてマスクのゼインパイアなどだ。残りの人々は、無一文の所有権と幸福を象徴する、トークン化されたわずかなパンくずを奪い合うことになるだろう。

チャーリーシアトル
チャーリーシアトル
1ヶ月前

AIが吐き出す嘘を誰が書くのか?

ポール·ワトソン
ポール·ワトソン
に返信  チャーリーシアトル
1ヶ月前

本当の答えを得るには AI に挑戦しなければなりません。
私はチャーリー・カークの殺人事件について尋ねたところ、ネット上の物語が吐き出され、暗殺と隠蔽にまつわる事実が提示され、非常に感銘を受けました。

ジョン·ハート
ジョン·ハート
1ヶ月前

進化を続けるハイテク社会において、個人が自由を保つためにはAIが不可欠です。しかし残念ながら、現在喧伝されているAI(AGI)は、提唱者が約束する成果を実現できないだけでなく、実現できるという誤った信念は極めて危険です。情報科学を理解している人々は、巨大システムが故障して停止した後、その部品を再利用しようと冗談を飛ばしています。これは「良い」シナリオであり、悪いシナリオは、崩壊した地球温暖化(AGW)詐欺を彷彿とさせます。しかし、何十億もの人々が未だにそれを信じています。

人類を助けるAIは普及し、人々が個々のニーズに合わせてAIをプログラムできる権限を与えられる必要がある。人々が依存するソフトウェアは、医療と同様に、 オープンソース! 寡頭政治家が規制機関、メディア、そして人々が依存するほとんどすべてのものを掌握することを許されたため、両分野における危険は長年にわたって増大し続けている。

独占の形成を防ぎ、個人の資本形成を促進する新しい税制が必要です。現在の制度は正反対のことをしており、資本主義のバランスを保つ「はずの」政府ははるか昔に掌握されてしまいました。PAT-SATは、経済のバランスを回復し、個人が繁栄できるようにするために設計されています。