論文の概要: Overcoming Anchoring Bias: The Potential of AI and XAI-based Decision Support
- arxiv url: http://arxiv.org/abs/2405.04972v1
- Date: Wed, 8 May 2024 11:25:04 GMT
- ステータス: 処理完了
- システム内更新日: 2024-05-09 14:44:45.407006
- Title: Overcoming Anchoring Bias: The Potential of AI and XAI-based Decision Support
- Title(参考訳): AIとXAIに基づく意思決定支援の可能性
- Authors: Felix Haag, Carlo Stingl, Katrin Zerfass, Konstantin Hopf, Thorsten Staake,
- Abstract要約: 情報システム(IS)は、個人の意思決定に影響を与えるバイアスをアンカーする負の効果を利用するように設計されている。
人工知能(AI)の最近の進歩は、偏見のある決定を緩和する新たな機会を開いた。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Information systems (IS) are frequently designed to leverage the negative effect of anchoring bias to influence individuals' decision-making (e.g., by manipulating purchase decisions). Recent advances in Artificial Intelligence (AI) and the explanations of its decisions through explainable AI (XAI) have opened new opportunities for mitigating biased decisions. So far, the potential of these technological advances to overcome anchoring bias remains widely unclear. To this end, we conducted two online experiments with a total of N=390 participants in the context of purchase decisions to examine the impact of AI and XAI-based decision support on anchoring bias. Our results show that AI alone and its combination with XAI help to mitigate the negative effect of anchoring bias. Ultimately, our findings have implications for the design of AI and XAI-based decision support and IS to overcome cognitive biases.
- Abstract(参考訳): 情報システム(IS)は、個人の意思決定(例えば、購入決定を操作することで)に影響を与えるバイアスをアンカーする負の効果を利用するように設計されている。
人工知能(AI)の最近の進歩と、説明可能なAI(XAI)による意思決定の説明により、バイアスのある決定を緩和する新たな機会が開かれた。
これまでのところ、アンカーバイアスを克服するこれらの技術進歩の可能性は、広く不明である。
この目的のために、AIとXAIに基づく意思決定支援がバイアスのアンカーに与える影響を調べるために、購入決定の文脈において、合計390人のN=390人の参加者による2つのオンライン実験を行った。
以上の結果から,AI単独とXAIの組み合わせは,バイアスのアンカーによる負の効果を軽減するのに有効であることが示唆された。
最終的に、私たちの発見は、認知バイアスを克服するためにAIとXAIベースの意思決定支援とISの設計に影響を及ぼす。
関連論文リスト
- Raising the Stakes: Performance Pressure Improves AI-Assisted Decision Making [57.53469908423318]
日常の人が共通のAI支援タスクを完了すると、パフォーマンスプレッシャーがAIアドバイスへの依存に与える影響を示す。
利害関係が高い場合には、AIの説明の有無にかかわらず、利害関係が低い場合よりもAIアドバイスを適切に使用することが分かりました。
論文 参考訳(メタデータ) (2024-10-21T22:39:52Z) - Biased AI can Influence Political Decision-Making [64.9461133083473]
本稿では、AI言語モデルにおけるパルチザンバイアスが政治的意思決定に及ぼす影響について検討する。
政治的に偏見のあるモデルに晒された参加者は、意見を採用し、AIの偏見と一致した決定を下す可能性が著しく高いことがわかった。
論文 参考訳(メタデータ) (2024-10-08T22:56:00Z) - Combining AI Control Systems and Human Decision Support via Robustness and Criticality [53.10194953873209]
我々は、逆説(AE)の方法論を最先端の強化学習フレームワークに拡張する。
学習したAI制御システムは、敵のタンパリングに対する堅牢性を示す。
トレーニング/学習フレームワークでは、この技術は人間のインタラクションを通じてAIの決定と説明の両方を改善することができる。
論文 参考訳(メタデータ) (2024-07-03T15:38:57Z) - Should XAI Nudge Human Decisions with Explanation Biasing? [2.6396287656676725]
本稿では、説明可能なAI(XAI)の説明に自動バイアスを導入するアプローチであるNudge-XAIの以前の試行についてレビューする。
Nudge-XAIは、説明を提供することや強調することの影響を予測し、強制せずにAI推奨の意思決定に向けてユーザーを誘導するユーザモデルを使用している。
論文 参考訳(メタデータ) (2024-06-11T14:53:07Z) - Logic-Based Explainability: Past, Present & Future [0.8547032097715571]
機械学習(ML)と人工知能(AI)の採用も重大な懸念点である。
最も先進的なAI/MLモデルの運用は、人間の意思決定者の把握を超えたものが多い。
本稿では,論理に基づくXAIとその起源,研究の現在の話題,今後の研究の話題について,技術的な調査を行う。
論文 参考訳(メタデータ) (2024-06-04T10:41:55Z) - Does More Advice Help? The Effects of Second Opinions in AI-Assisted
Decision Making [45.20615051119694]
我々は、AIによる意思決定における意思決定者の行動とパフォーマンスに第2の意見がどう影響するかを考察する。
AIモデルの推奨事項と第2の意見が常に一致している場合、意思決定者はAIに対する過度な信頼を減らすことができる。
もし意思決定者が、いつ仲間の第二の意見を求めるかを決めることができるならば、彼らの第二の意見の活発な勧誘は、AIに対する過度な信頼を緩和する可能性があることに気付く。
論文 参考訳(メタデータ) (2024-01-13T12:19:01Z) - Fairness in AI and Its Long-Term Implications on Society [68.8204255655161]
AIフェアネスを詳しく見て、AIフェアネスの欠如が、時間の経過とともにバイアスの深化につながるかを分析します。
偏りのあるモデルが特定のグループに対してよりネガティブな現実的な結果をもたらすかについて議論する。
問題が続くと、他のリスクとの相互作用によって強化され、社会不安という形で社会に深刻な影響を及ぼす可能性がある。
論文 参考訳(メタデータ) (2023-04-16T11:22:59Z) - Seamful XAI: Operationalizing Seamful Design in Explainable AI [59.89011292395202]
AIシステムのミスは必然的であり、技術的制限と社会技術的ギャップの両方から生じる。
本稿では, 社会工学的・インフラ的ミスマッチを明らかにすることにより, シームレスな設計がAIの説明可能性を高めることを提案する。
43人のAI実践者と実際のエンドユーザでこのプロセスを探求します。
論文 参考訳(メタデータ) (2022-11-12T21:54:05Z) - Cybertrust: From Explainable to Actionable and Interpretable AI (AI2) [58.981120701284816]
Actionable and Interpretable AI (AI2)は、AIレコメンデーションにユーザの信頼度を明確に定量化し視覚化する。
これにより、AIシステムの予測を調べてテストすることで、システムの意思決定に対する信頼の基盤を確立することができる。
論文 参考訳(メタデータ) (2022-01-26T18:53:09Z) - On Two XAI Cultures: A Case Study of Non-technical Explanations in
Deployed AI System [3.4918511133757977]
XAIの多くは、実際にはデプロイされたAIシステムの主要なオーディエンスであり、主要な利害関係者である非AI専門家には理解できない。
我々は,非技術者を対象としたXAI手法の開発が重要であることを主張する。
そして、AIの専門家が非技術ステークホルダーにAI決定の非技術的な説明を提供した、実生活のケーススタディを提示します。
論文 参考訳(メタデータ) (2021-12-02T07:02:27Z) - The human-AI relationship in decision-making: AI explanation to support
people on justifying their decisions [4.169915659794568]
人々は、AIがどのように機能するか、そしてそのシステムとの関係を構築するために、その成果をもっと意識する必要があります。
意思決定のシナリオでは、人々はAIがどのように機能するか、そしてそのシステムとの関係を構築する結果についてもっと意識する必要があります。
論文 参考訳(メタデータ) (2021-02-10T14:28:34Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。