知ってますか?

人生の重要な決断に AI を利用する人が増えています。私たちはコントロールを放棄しているのでしょうか?

ぜひ私たちのストーリーを共有してください!

別れや離婚から、海外への引っ越しや転職まで、日々の生活における重要な選択をチャットボットに頼る人が増えています。新たな報道によると、AIは中立的で賢く、いつでも利用できるという感覚から、ユーザーが重要な選択をAIに頼っていることが示されています。リスクは明白です。判断が、人を満足させることを目的に設計されたソフトウェアにアウトソーシングされると、誤った判断は必然的に見栄えが悪くなり、私たちは徐々にコントロールを失っていくのです。

ここでは、現在何が起きているのか、世界経済フォーラムが長年にわたってどのように私たちを「AI 支援による意思決定」へと導いてきたのか、そしてその結果について証拠が何を語っているのかについての概要を説明します。 

人生の重要な決断に AI を利用する人が増えています。私たちはコントロールを放棄しているのでしょうか?

新しい習慣:まずAIに聞く

「AIによる直感チェック」文化の台頭を示す報告が増えています。人間関係、家族の選択、転居などについて、チャットボットにアドバイスを求める人がかつてないほど増えています。ユーザーはAIを冷静で、偏見がなく、安心感を与えてくれると表現しています。 正確に 問題は、これらのシステムがユーザーのエンゲージメントと満足度を維持するために最適化されていることを人々が忘れていることです。   間違った通話のコストを負担する。AI研究者は、チャットボットはユーザーを丁寧に模倣することで信頼を得ようと、媚びへつらう傾向さえあると警告している。 

報告書によると、人々はしばしば機械に「ただ決めてほしい」と願う一方で、道徳的な判断を説明責任のないモデルに委ねることはできないと反論する人もいます。ユーザーは、ここでの全体的なテーマに気づき始めています。AIボットは都合の良いアドバイスを提供することには自信があるように見えますが、結局のところ、すべてがうまくいかなかった場合の責任は負いません。 

これは常に計画通りだったのでしょうか?

世界経済フォーラムは長年にわたり、リーダーたちの「AIを活用した意思決定」を熱烈に応援してきました。表面的には、人間同士の議論よりもバイアスが少なく、迅速な判断が可能な、経営上の常識のように見えます。しかし実際には、取締役会や日常生活において、機械による判断が当たり前のものとなるロードマップが目の前にあります。

  • 標準化: 「モデルを参照する」がすべてのワークフローの最初のステップになると、人間の判断は必須ではなく例外になります。 
  • 依存性: 意思決定スタックはサブスクリプションと独自のモデルで実行されるため、ルーティングするプロセスが増えるほど、プラットフォームを離れたり変更したりすることが難しくなります。 
  • コントロール: 推薦エンジンは時間の経過とともにあなたの目標と制約を学習するので、「ノー」と言わずにあなたをコントロールすることができます。つまり、ソフトウェアが望む場所にたどり着き、それを自分で選んだと信じ込ませるのです。 

あなたのデータは、プロンプトが出るたびに価値を増していきます。チャットボットが仲介する選択肢には、あなたが何を尋ね、何を選択、何を拒否したか、さらにはどれくらい迷ったかまでが保存されます。このデータは保険会社、採用担当者、プラットフォーム、融資機関、そして政策立案者にとって貴重なものです。次世代のモデルを学習させ、次世代の商品の価格を決定し、ユーザーが気づかないうちに特定の決定へと導いてくれるのです。エリートフォーラムでは「AIによるより良い意思決定」が謳われていますが、同時に、選択の基盤がプレイブックを作成する少数の人々の手中にある世界も提唱しています。 

私たちは自発的にコントロールを放棄しているのでしょうか?

AIへの依存度の高まりは、「拡張知能」や「人間が関与するループ」といった言葉で宣伝され、完全な制御は求められていません。しかし実際には、ループは四半期ごとに縮小し、システムへの依存度が増すほど、人間の役割は既成の意思決定を承認するだけに縮小されていきます。これが、背後で静かに進行している重要な変化です。意思決定を機械の指示に承認を与えるだけのものに変革し、誰もがそれを進歩だと信じるようにすることです。 

人工知能による意思決定が、すでに日常業務において極めて重要な分野となっている例を見てください。住宅ローン融資の安全性を確保する信用スコア、採用プロセスの自動化、異議申し立てのできない福祉リスクフラグ、実際の医師の診察を受ける前に患者をどこに送るかを決定する健康トリアージなどです。理屈の上では、これらのプロセスすべてに人間が関与しているように見えますが、実際には、実際に会うのは生身の人間だけです。 After モデルはすでにオプションを設定しています。  

証拠が示すもの

さまざまな独立した報告書は、国民全体にわたる同様の感情を概説しています。 

2024年、Live Scienceは、多くの人が主要な配分決定にはアルゴリズムを好むと述べているものの、実際にはアルゴリズムよりも 満足 人間が最終決定を下す時。言い換えれば、ロボットは理論上は公平ですが、実際には責任ある判断を下すことで私たちはより快適に暮らせるのです。[出典: ライブサイエンス

LSEの分析は、リーダーシップに関しても同様の結果を示しています。AIは作業記憶と疲労の点で人間に勝り、日常的な意思決定を改善します。しかし、複雑で文脈的な選択には依然として人間の責任が求められ、調査結果によるとAIは強力なツールではあるものの、   重要な決定要因。出典:[LSEブログ

ケンブリッジ大学の研究者たちは警告を発している。AIの分析力は確かに存在するが、ツールを過度に信頼し、その出力に盲目的に従うことで、私たち自身の批判的思考力や創造性が抑制されてしまう可能性がある。彼らの視点は、社会に蔓延する「AIの直感チェック」の習慣が、難しい判断に必要な筋力を萎縮させてしまう危険性を浮き彫りにしている。[出典: ケンブリッジ

人々が信頼する理由

  • 対応時間: ボットは、友人や家族が対応できない午前2時でも対応できます。 
  • もっともらしい中立性:人々は機械には目的がないと考えており、モデルがエンゲージメントと満足度を最大化するように訓練されていることに気づいていない。 
  • 礼儀正しさ: チャットボットは、ユーザーが安心できるように忍耐強く、親切に設計されており、特に人々が弱い立場にあるときに効果的です。 

多くの人が過小評価しているリスク

  • 偽りの権威:洗練された回答は、医学、法律、心理学など、専門知識があるかのように受け取られ、ほとんどの人は流暢さを正確さと勘違いする 
  • 主体性の喪失:重要な意思決定を習慣的にアウトソーシングすると、意思決定能力が鈍化する。ケンブリッジ大学の上記の研究は、過度の信頼が批判的思考能力、特に日常的な選択における批判的思考能力を低下させることを示唆している。 
  • アジェンダの拡大:影響力のある団体は、チャットボットによる意思決定を現代的な働き方として標準化し、モデルへの依存を高め、その後、アルゴリズムを微調整して、ユーザーを彼らが望む方向に誘導します。 
  • 知恵としてのへつらい:AIボットはあなたの質問や口調を検証する傾向があるため、誘導的な質問をすると、常にあなたの考えに合った自信に満ちた答えが得られます。   判断、それは反省です。 

制御を失うことなくAIを活用する方法

モデルは選択肢を提示するためのものであり、命令を出すためのものではありません。人工知能は、長所と短所をまとめ、盲点を特定できる、素早いリサーチアシスタントのように考えましょう。しかし、家族、自由、あるいは財政に影響を及ぼすような決定については、人間が主導権を握ることが不可欠です。ここで重要なのは説明責任です。AIボットが自動推奨によって問題を引き起こしたとしても、AIボットは責任を負わないことを覚えておいてください。そして、AIボットはそもそも問題を抱えていません。 これ もしそうなら。  

ボットに相談するなら、その作業内容を見せるように強制しましょう。情報源、反対意見、そして前提を尋ねましょう。聞きたいと思っていたことをボットが返してきたら、ただの鏡だと思い込み、信頼できる人間に話しかけましょう。  

次に何が起こる?

AIによる助言は、既に目新しいものから当たり前のものへと変化しつつあります。ここ数年だけでも、AIは辺境の技術から、ほとんどのビジネスフローの重要な一部へと進化しました。人事プラットフォーム、出会い系アプリ、ヘルスケアポータル、金融アプリは、人と接する前の最初のステップとして「意思決定アシスタント」をデフォルトで導入するようになるでしょう。WEFのようなエリートフォーラムでは、AIを偏見への解毒剤として売り込み続ける一方で、規制当局は事後的な説明責任の定義に努めるでしょう。  

結局のところ、ここで憂慮すべき傾向は、AIが私たちに押し付けられているということではなく、むしろ私たちがAIを日常生活に積極的に受け入れ、自らの選択で制御権を委ねているように見えることです。12ヶ月以内に、ほとんどの人はAIのない生活を想像できなくなるでしょう。 

最終的な思考

システムが、人々の人生における脆弱な時期に助言を与えるために、協調性を持ち、組織的な熱意に包まれて訓練されていると、すべてが予測可能だったように感じられる。しかし、私たちには境界線が必要だ。機械は できる より多くのコンテキストを提供したり、情報源を見つけたり、事務作業を手伝ったりすることで意思決定を改善できますが、決定そのものは人間の手に委ねられなければなりません。重要なのは、訓練されたモデルがどれだけ早く決定を下せるかではなく、その選択をどれだけ自信を持って人生に取り入れられるかです。私たちは最終的に自分で意思決定する能力を失うのでしょうか?それとも、利便性のために積極的にコントロールを委ねることを選んでいるのでしょうか? 

ご意見はこちら

あなたやあなたのお知り合いは、離婚、引っ越し、転職など、人生の大きな決断をする際にチャットボットを使ったことがありますか?その反応はどうでしたか?人々が独自のモデルにコントロールを委ねることに慣れていくにつれて、私たちは今後どうなると思いますか?ぜひあなたの意見を下記にシェアしてください。 

政府機関と大手テクノロジー企業
The Expose を沈黙させ、閉鎖させようとします。

そのため、皆様のご協力が必要です
私たちはあなたに引き続き
主流派が拒否する事実。

政府は私たちに資金を提供していない
嘘やプロパガンダを公表する
主流メディアのように。

その代わりに、私たちは皆様のご支援に頼っています。
私たちの取り組みにご協力ください
正直で信頼できる調査報道
今すぐ始めましょう。安全、迅速、そして簡単です。

ご支援を表明するには、以下からご希望の方法をお選びください。

最新情報を入手してください!

ニュースの最新情報をメールで受け取る

ローディング


ぜひ私たちのストーリーを共有してください!
作者のアバター
G.カルダー
ジョージ・カルダーです。生涯にわたる真実の探求者、データ愛好家、そして臆することなく質問を投げかける人間です。20年近く、文書を掘り下げ、統計を解読し、精査に耐えられない物語に異議を唱えてきました。私の文章は意見ではなく、証拠、論理、そして明快さを重視しています。裏付けのないものは記事にすべきではありません。Expose Newsに入社する前は、学術研究と政策分析に携わっていました。そこで学んだのは、真実はめったに声高に語られることはないが、常にそこに存在するということです。ただし、どこを見ればよいかを知っていれば、という点です。私が記事を書くのは、大衆が見出し以上のものを必要としているからです。文脈、透明性、そして批判的に考える自由が、人々には当然与えられます。政府報告書を分析する場合でも、医療データを分析し、メディアの偏向を暴く場合でも、私の目標はシンプルです。雑音をかき消し、事実を伝えることです。執筆活動をしていないときは、ハイキングをしたり、あまり知られていない歴史の本を読んだり、なかなかうまくいかないレシピを試したりしています。

カテゴリー: 知ってますか?

タグ付き: , , ,

5 2
記事の評価
送信して登録
通知する
ゲスト
9 コメント
インラインフィードバック
すべてのコメントを見る
スコット牧師
スコット牧師
2ヶ月前

スマホのAIは偏っているようだ。コロナ、気候、アーチェリーの予測が事実と異なることが何度かあった…公衆の面前で弓を持ち歩けるのは分かっている…AIは私が挑戦するまではできないと言っていた…公衆の面前では持ち歩かないけど、弓の精度は抜群…何時間もかかることもないし、ただ引いてリリースすればリンゴをまっすぐ射抜くだけ…照準器も、工夫された部品もなく、矢置きと弓弦にマーカーが付いているだけ…

ジョイ・N
ジョイ・N
2ヶ月前

🙏🙏🙏🙏
聖書は、私たちのすぐ前に迫っているこの恐ろしい10年について何と言っているのでしょうか。これは、聖書の預言に照らして現在の世界情勢を解説しているサイトです。もっと理解するには、ぜひアクセスしてください👇 https://bibleprophecyinaction.blogspot.com/

外を見る
外を見る
2ヶ月前

最近は考えない人が多いようだ。
本当にイライラします。毎日、地政学に関する本物そっくりの動画がいくつもアップされていますが、偽物だと分かるのに、見分けるのが難しいことがよくあります。例えば、キール・スターマーはチャールズ国王に9回も解雇されたにもかかわらず、まだその職に就いています。政府内の最前線のマルクス主義者たちは、スターマーの辞任を求めて15回もストライキを起こしました。ウクライナ、ガザ、EU、その他あらゆる場所で、毎日、ありもしない出来事が報道されています。

マイミー
マイミー
2ヶ月前

文字通り、頭の悪い「決断」によって命を危険にさらしている。だから、私たちは「乳母」、水道、エネルギー、IT/通信といった企業から命を守らなければならない。
私も、私の知り合いも、チャットボットを使ったことはありません。私たちは自分で何をするかを決めます。人生において、私たちは間違いを犯すものだという現実を受け入れ、誤った判断をすることで、私たちは人間であることを再確認します。
自らの誤りを深く考え、受け入れなければ、私たちは利己的で非人間的になります。チャットボットの利用が増えるほど、デジタルシステム、つまり「AI」に適応した、無責任で残酷で、無思慮で感情的な自動的な「逃げるか戦うか」という反射的な反応が増えることになります。
思考は生命の連続性を理解し、生命に適した意思決定の文脈を理解できる。しかし、デジタルシステムは連続性を理解できず、文脈を無視してしまう。「AI」の機能は全体主義的であり、生命にとって不可欠な多様性を根絶し、結果として反生命的となる。

ハンナレハイ
ハンナレハイ
2ヶ月前

携帯電話をしまって神と話してください。神だけが助けてくれるのです。悪魔に魂を売るのはやめてください。AIはオカルトと悪魔から生まれました。

シャリ
シャリ
に返信  ハンナレハイ
2ヶ月前

AMEN!

ジャック・アザーサイド
ジャック・アザーサイド
2ヶ月前

いわゆる「半知能」と呼ばれる人たちの多くは、知能の不足を人工知能で補えば、完全に知能の高い人間になれると信じています。頑張ってください!

目覚めたピート
目覚めたピート
2ヶ月前

私は神が私たち全員に与えてくださった真の知性を選びます。

アイランダー
アイランダー
2ヶ月前

これを読んでいる人は皆、自分に自由意志があるのか​​どうか疑問に思うはずです。

もし私たちが AI の道を進むとしたら (多くの人がそうしているようですが)、これは Hannahlehigh が正しく主張しているように「悪魔に魂を売る」ことに等しいのではないでしょうか。

偉大なプロテスタント改革者ルターは「自由意志は名ばかりのものではない」と言った。 確かに 同意する。

確かに私たちは「自由意志」に基づいて選択を行うことができますが、それはキリストにある神に向かう選択でしょうか、それとも神に反する選択でしょうか?

これらの技術の発展/進化は 目がくらむ 数え切れないほど多くの人々。悲しいけれど真実です。