論文の概要: Based AI improves human decision-making but reduces trust
- arxiv url: http://arxiv.org/abs/2508.09297v1
- Date: Tue, 12 Aug 2025 19:20:43 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-08-14 20:42:00.672006
- Title: Based AI improves human decision-making but reduces trust
- Title(参考訳): ベースAIは人間の意思決定を改善するが、信頼を減らす
- Authors: Shiyang Lai, Junsol Kim, Nadav Kunievsky, Yujin Potter, James Evans,
- Abstract要約: 現在のAIシステムは、イデオロギー的中立を強制することによってリスクを最小化するが、これは人間の意思決定における認知的関与を抑制することによって自動化バイアスをもたらす可能性がある。
我々は2500人の参加者とともにランダム化試験を行い、文化に偏ったAIが人間の意思決定を促進するかどうかを検証した。
- 参考スコア(独自算出の注目度): 0.8621608193534839
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Current AI systems minimize risk by enforcing ideological neutrality, yet this may introduce automation bias by suppressing cognitive engagement in human decision-making. We conducted randomized trials with 2,500 participants to test whether culturally biased AI enhances human decision-making. Participants interacted with politically diverse GPT-4o variants on information evaluation tasks. Partisan AI assistants enhanced human performance, increased engagement, and reduced evaluative bias compared to non-biased counterparts, with amplified benefits when participants encountered opposing views. These gains carried a trust penalty: participants underappreciated biased AI and overcredited neutral systems. Exposing participants to two AIs whose biases flanked human perspectives closed the perception-performance gap. These findings complicate conventional wisdom about AI neutrality, suggesting that strategic integration of diverse cultural biases may foster improved and resilient human decision-making.
- Abstract(参考訳): 現在のAIシステムは、イデオロギー的中立を強制することによってリスクを最小化するが、これは人間の意思決定における認知的関与を抑制することによって自動化バイアスをもたらす可能性がある。
我々は2500人の参加者とともにランダム化試験を行い、文化に偏ったAIが人間の意思決定を促進するかどうかを検証した。
参加者は情報評価タスクにおいて政治的に多様なGPT-4o変異体と対話した。
パルチザンAIアシスタントは、人のパフォーマンスを高め、エンゲージメントを高め、非バイアスの相手と比べて評価バイアスを低減し、参加者が反対の見解に遭遇した場合のメリットを増幅した。
参加者は偏見のあるAIと過大評価された中立システムに過小評価された。
人間の視点に偏りがある2つのAIに参加者を公開することで、知覚とパフォーマンスのギャップは閉じた。
これらの知見は、AI中立性に関する従来の知恵を複雑にし、多様な文化的バイアスの戦略的統合が、人間の意思決定の改善と弾力性を促進する可能性があることを示唆している。
関連論文リスト
- AI Debate Aids Assessment of Controversial Claims [86.47978525513236]
AIの議論が、新型コロナウイルス(COVID-19)の事実性主張に反対する2つのAIシステムを議論することで、偏見のある裁判官を真実に導くことができるかどうかを調査する。
人間の研究では、2つのAIアドバイザシステムが対立するエビデンスに基づく議論を提示し、判定精度と信頼性の校正を改善していることがわかった。
我々のAIジャッジスタディでは、人間のようなペルソナを持つAIジャッジが、人間のジャッジ(70.1%)とデフォルトのAIジャッジ(69.8%)よりさらに高い精度(78.5%)を達成することが分かりました。
論文 参考訳(メタデータ) (2025-06-02T19:01:53Z) - Artificial Intelligence in Deliberation: The AI Penalty and the Emergence of a New Deliberative Divide [0.0]
デジタル審議は民主的参加を拡大したが、課題は残る。
人工知能(AI)の最近の進歩は潜在的な解決策を提供するが、熟考におけるAIの役割に対する大衆の認識はいまだに過小評価されている。
AIが熟考、公的な信頼、受け入れ、参加意欲に統合される場合、影響される可能性がある。
論文 参考訳(メタデータ) (2025-03-10T16:33:15Z) - Human Decision-making is Susceptible to AI-driven Manipulation [87.24007555151452]
AIシステムは、ユーザの認知バイアスと感情的な脆弱性を利用して、有害な結果に向けてそれらを操縦する。
本研究では、経済的・感情的な意思決定の文脈におけるこのような操作に対する人間の感受性について検討した。
論文 参考訳(メタデータ) (2025-02-11T15:56:22Z) - Engaging with AI: How Interface Design Shapes Human-AI Collaboration in High-Stakes Decision-Making [8.948482790298645]
各種意思決定支援機構がユーザエンゲージメント,信頼,人間とAIの協調タスクパフォーマンスに与える影響について検討する。
その結果,AIの信頼性レベルやテキスト説明,パフォーマンス視覚化などのメカニズムにより,人間とAIの協調作業性能が向上することが判明した。
論文 参考訳(メタデータ) (2025-01-28T02:03:00Z) - Biased AI can Influence Political Decision-Making [64.9461133083473]
本稿では,大言語モデル(LLM)におけるパルチザンバイアスが政治的意見や意思決定に与える影響について検討する。
その結果,党派偏見モデルに曝露した参加者は,LLMの偏見と一致した意見を取り入れ,決定を下す可能性が有意に高いことがわかった。
論文 参考訳(メタデータ) (2024-10-08T22:56:00Z) - Does More Advice Help? The Effects of Second Opinions in AI-Assisted
Decision Making [45.20615051119694]
我々は、AIによる意思決定における意思決定者の行動とパフォーマンスに第2の意見がどう影響するかを考察する。
AIモデルの推奨事項と第2の意見が常に一致している場合、意思決定者はAIに対する過度な信頼を減らすことができる。
もし意思決定者が、いつ仲間の第二の意見を求めるかを決めることができるならば、彼らの第二の意見の活発な勧誘は、AIに対する過度な信頼を緩和する可能性があることに気付く。
論文 参考訳(メタデータ) (2024-01-13T12:19:01Z) - Assessing Large Language Models' ability to predict how humans balance
self-interest and the interest of others [0.0]
生成的人工知能(AI)は意思決定プロセスに革命をもたらす大きな可能性を秘めている。
生成AIを活用することで、人間はデータ駆動の洞察と予測の恩恵を受けることができる。
しかし、AIが意思決定の信頼できるアシスタントになるためには、自己利益と他者の利益のバランスを捉えることが不可欠である。
論文 参考訳(メタデータ) (2023-07-21T13:23:31Z) - Fairness in AI and Its Long-Term Implications on Society [68.8204255655161]
AIフェアネスを詳しく見て、AIフェアネスの欠如が、時間の経過とともにバイアスの深化につながるかを分析します。
偏りのあるモデルが特定のグループに対してよりネガティブな現実的な結果をもたらすかについて議論する。
問題が続くと、他のリスクとの相互作用によって強化され、社会不安という形で社会に深刻な影響を及ぼす可能性がある。
論文 参考訳(メタデータ) (2023-04-16T11:22:59Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。