論文の概要: When is using AI the rational choice? The importance of counterfactuals in AI deployment decisions
- arxiv url: http://arxiv.org/abs/2504.05333v1
- Date: Fri, 04 Apr 2025 14:59:29 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-04-09 13:31:51.336923
- Title: When is using AI the rational choice? The importance of counterfactuals in AI deployment decisions
- Title(参考訳): AIが合理的な選択になるのはいつか?AIの展開決定における反事実の重要性
- Authors: Paul Lehner, Elinor Yeo,
- Abstract要約: 偽造ミスは、AIデプロイメント決定者に対して不当な不利をもたらす可能性がある。
本稿では, 有効性評価に反実的な結果を含める方法について検討する。
- 参考スコア(独自算出の注目度): 0.0
- License:
- Abstract: Decisions to deploy AI capabilities are often driven by counterfactuals - a comparison of decisions made using AI to decisions that would have been made if the AI were not used. Counterfactual misses, which are poor decisions that are attributable to using AI, may have disproportionate disutility to AI deployment decision makers. Counterfactual hits, which are good decisions attributable to AI usage, may provide little benefit beyond the benefit of better decisions. This paper explores how to include counterfactual outcomes into usage decision expected utility assessments. Several properties emerge when counterfactuals are explicitly included. First, there are many contexts where the expected utility of AI usage is positive for intended beneficiaries and strongly negative for stakeholders and deployment decision makers. Second, high levels of complementarity, where differing AI and user assessments are merged beneficially, often leads to substantial disutility for stakeholders. Third, apparently small changes in how users interact with an AI capability can substantially impact stakeholder utility. Fourth, cognitive biases such as expert overconfidence and hindsight bias exacerbate the perceived frequency of costly counterfactual misses. The expected utility assessment approach presented here is intended to help AI developers and deployment decision makers to navigate the subtle but substantial impact of counterfactuals so as to better ensure that beneficial AI capabilities are used.
- Abstract(参考訳): AI機能をデプロイする決定は、しばしば反ファクトリファクトによって駆動される。AIを使用した決定と、AIが使用されていない場合の判断の比較である。
AIの使用に起因する不適切な判断である偽造ミスは、AIデプロイメント決定者に対して不当に有効である可能性がある。
AIの使用に起因した優れた決定である反事実的ヒットは、より良い決定の利益以上の利益をほとんど与えない。
本稿では, 有効性評価に反実的な結果を含める方法について検討する。
反事実が明示的に含められると、いくつかの性質が現れる。
第一に、AI利用の期待されるユーティリティが意図された受益者に対して肯定的であり、ステークホルダやデプロイメント意思決定者に対して強い否定的である、という多くの状況があります。
第二に、AIとユーザアセスメントの違いが有益にマージされる高いレベルの相補性は、しばしばステークホルダーにとって実質的な非実用性をもたらす。
第3に、AI機能とのインタラクション方法の小さな変更は、利害関係者のユーティリティに大きく影響する可能性がある。
第4に、専門家の過信や後見バイアスのような認知バイアスは、コストのかかる反事実的ミスの頻度を悪化させる。
ここで提示される期待されるユーティリティアセスメントアプローチは、AI開発者やデプロイメントの意思決定者が、反ファクトの微妙だが実質的な影響をナビゲートして、有益なAI機能の使用を確実にするためのものだ。
関連論文リスト
- Human-Alignment Influences the Utility of AI-assisted Decision Making [16.732483972136418]
我々は,アライメントの程度が,AIによる意思決定の有用性に与える影響について検討する。
以上の結果から,AIによる意思決定におけるアライメントの程度と有効性との関連が示唆された。
論文 参考訳(メタデータ) (2025-01-23T19:01:47Z) - How Performance Pressure Influences AI-Assisted Decision Making [57.53469908423318]
我々は、プレッシャーと説明可能なAI(XAI)技術がAIアドバイステイク行動とどのように相互作用するかを示す。
我々の結果は、圧力とXAIの異なる組み合わせで複雑な相互作用効果を示し、AIアドバイスの行動を改善するか、悪化させるかのどちらかを示す。
論文 参考訳(メタデータ) (2024-10-21T22:39:52Z) - Combining AI Control Systems and Human Decision Support via Robustness and Criticality [53.10194953873209]
我々は、逆説(AE)の方法論を最先端の強化学習フレームワークに拡張する。
学習したAI制御システムは、敵のタンパリングに対する堅牢性を示す。
トレーニング/学習フレームワークでは、この技術は人間のインタラクションを通じてAIの決定と説明の両方を改善することができる。
論文 参考訳(メタデータ) (2024-07-03T15:38:57Z) - Overcoming Anchoring Bias: The Potential of AI and XAI-based Decision Support [0.0]
情報システム(IS)は、個人の意思決定に影響を与えるバイアスをアンカーする負の効果を利用するように設計されている。
人工知能(AI)の最近の進歩は、偏見のある決定を緩和する新たな機会を開いた。
論文 参考訳(メタデータ) (2024-05-08T11:25:04Z) - Particip-AI: A Democratic Surveying Framework for Anticipating Future AI Use Cases, Harms and Benefits [54.648819983899614]
汎用AIは、一般大衆がAIを使用してそのパワーを利用するための障壁を下げたようだ。
本稿では,AI利用事例とその影響を推測し,評価するためのフレームワークであるPartICIP-AIを紹介する。
論文 参考訳(メタデータ) (2024-03-21T19:12:37Z) - Fairness in AI and Its Long-Term Implications on Society [68.8204255655161]
AIフェアネスを詳しく見て、AIフェアネスの欠如が、時間の経過とともにバイアスの深化につながるかを分析します。
偏りのあるモデルが特定のグループに対してよりネガティブな現実的な結果をもたらすかについて議論する。
問題が続くと、他のリスクとの相互作用によって強化され、社会不安という形で社会に深刻な影響を及ぼす可能性がある。
論文 参考訳(メタデータ) (2023-04-16T11:22:59Z) - Knowing About Knowing: An Illusion of Human Competence Can Hinder
Appropriate Reliance on AI Systems [13.484359389266864]
本稿では、Dunning-Kruger Effect(DKE)がAIシステムへの適切な依存を妨げているかどうかを論じる。
DKEは、能力の低い個人が自身のスキルやパフォーマンスを過大評価しているため、メタ認知バイアスである。
その結果、パフォーマンスを過大評価する参加者は、AIシステムへの信頼度が低い傾向にあることがわかった。
論文 参考訳(メタデータ) (2023-01-25T14:26:10Z) - Cybertrust: From Explainable to Actionable and Interpretable AI (AI2) [58.981120701284816]
Actionable and Interpretable AI (AI2)は、AIレコメンデーションにユーザの信頼度を明確に定量化し視覚化する。
これにより、AIシステムの予測を調べてテストすることで、システムの意思決定に対する信頼の基盤を確立することができる。
論文 参考訳(メタデータ) (2022-01-26T18:53:09Z) - Effect of Confidence and Explanation on Accuracy and Trust Calibration
in AI-Assisted Decision Making [53.62514158534574]
ケース固有のモデル情報を明らかにする特徴が、信頼度を調整し、人間とAIのジョイントパフォーマンスを向上させることができるかどうかを検討する。
信頼スコアは、AIモデルに対する人々の信頼を校正するのに役立ちますが、信頼の校正だけでは、AI支援による意思決定を改善するには不十分です。
論文 参考訳(メタデータ) (2020-01-07T15:33:48Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。