論文の概要: The Duet of Representations and How Explanations Exacerbate It
- arxiv url: http://arxiv.org/abs/2402.08379v1
- Date: Tue, 13 Feb 2024 11:18:27 GMT
- ステータス: 処理完了
- システム内更新日: 2024-02-14 15:41:01.949728
- Title: The Duet of Representations and How Explanations Exacerbate It
- Title(参考訳): 表現のデュエットと説明がいかに悪化するか
- Authors: Charles Wan, Rodrigo Belo, Leid Zejnilovi\'c, Susana Lavado
- Abstract要約: アルゴリズムは、人間の知覚における特徴とラベルの関係の因果表現に影響を及ぼす。
説明は、人間の注意を対立する特徴に向け、他の関連する特徴から遠ざけることができる。
これは因果的過剰寄与を引き起こし、人間の情報処理に悪影響を及ぼす可能性がある。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: An algorithm effects a causal representation of relations between features
and labels in the human's perception. Such a representation might conflict with
the human's prior belief. Explanations can direct the human's attention to the
conflicting feature and away from other relevant features. This leads to causal
overattribution and may adversely affect the human's information processing. In
a field experiment we implemented an XGBoost-trained model as a decision-making
aid for counselors at a public employment service to predict candidates' risk
of long-term unemployment. The treatment group of counselors was also provided
with SHAP. The results show that the quality of the human's decision-making is
worse when a feature on which the human holds a conflicting prior belief is
displayed as part of the explanation.
- Abstract(参考訳): アルゴリズムは人間の知覚における特徴とラベルの関係の因果表現に影響を及ぼす。
このような表現は、人間の以前の信念と矛盾する可能性がある。
説明は人間の注意を対立する特徴に向け、他の関連する特徴から遠ざけることができる。
これは因果的過剰寄与を引き起こし、人間の情報処理に悪影響を及ぼす可能性がある。
フィールド実験では,XGBoost訓練モデルを公共雇用におけるカウンセラーの意思決定支援として実施し,候補者の長期失業リスクを予測した。
また, カウンセラーの治療群にはSHAPが付与された。
その結果,人間に矛盾する先行信念を持つ特徴が説明の一部として表示されると,人間の意思決定の質は悪化することがわかった。
関連論文リスト
- Observation Interference in Partially Observable Assistance Games [34.53170543153206]
我々は,人間とAIアシスタントが部分的な観察を行うことを可能にする,人間-AI値アライメント問題のモデルについて検討する。
最適なアシスタントは、人間が最適に演奏している場合でも、観察干渉行動をとる必要がある。
不合理性のボルツマンモデルに従えば、これはアシスタントが観察に干渉するインセンティブを生じさせることが示される。
論文 参考訳(メタデータ) (2024-12-23T18:53:33Z) - The Odyssey of Commonsense Causality: From Foundational Benchmarks to Cutting-Edge Reasoning [70.16523526957162]
常識の因果関係を理解することは、人々が現実世界の原理をよりよく理解するのに役立ちます。
その重要性にもかかわらず、このトピックの体系的な探索は特に欠落している。
本研究の目的は、体系的な概要の提供、最近の進歩に関する学者の更新、初心者のための実践的なガイドを提供することである。
論文 参考訳(メタデータ) (2024-06-27T16:30:50Z) - Mitigating Biases in Collective Decision-Making: Enhancing Performance in the Face of Fake News [4.413331329339185]
これらのバイアスが偽ニュースの広範的問題に与える影響を、偽ニュースの見出しを識別する人間の能力を評価することによって検討する。
センシティブな特徴を含む見出しに焦点を合わせることで、人間の反応がバイアスによってどのように形作られるかを探るため、包括的なデータセットを集めます。
人口統計学的要因,見出しカテゴリー,情報の提示方法が人的判断の誤りに大きく影響していることを示す。
論文 参考訳(メタデータ) (2024-03-11T12:08:08Z) - Decoding Susceptibility: Modeling Misbelief to Misinformation Through a Computational Approach [61.04606493712002]
誤報に対する感受性は、観測不可能な不検証の主張に対する信念の度合いを記述している。
既存の感受性研究は、自己報告された信念に大きく依存している。
本稿では,ユーザの潜在感受性レベルをモデル化するための計算手法を提案する。
論文 参考訳(メタデータ) (2023-11-16T07:22:56Z) - Online Decision Mediation [72.80902932543474]
意思決定支援アシスタントを学習し、(好奇心)専門家の行動と(不完全)人間の行動の仲介役として機能することを検討する。
臨床診断では、完全に自律的な機械行動は倫理的余裕を超えることが多い。
論文 参考訳(メタデータ) (2023-10-28T05:59:43Z) - The Impact of Explanations on Fairness in Human-AI Decision-Making: Protected vs Proxy Features [25.752072910748716]
説明は、人間とAIチームがより公平な意思決定のバイアスに対処するのに役立ちます。
モデルフェアネスに対する参加者の認識に及ぼす保護的・代理的特徴の有無の影響について検討した。
説明は直接的ではあるが間接的偏見を検出するのに役立ちます。
論文 参考訳(メタデータ) (2023-10-12T16:00:16Z) - Explanations, Fairness, and Appropriate Reliance in Human-AI Decision-Making [10.049226270783562]
特徴に基づく説明がAIによる意思決定の分配的公平性に及ぼす影響について検討する。
以上の結果から,説明は公正感に影響を及ぼし,人間のAI推奨に固執する傾向に影響を及ぼすことが明らかとなった。
論文 参考訳(メタデータ) (2022-09-23T19:10:59Z) - Toward Supporting Perceptual Complementarity in Human-AI Collaboration
via Reflection on Unobservables [7.3043497134309145]
予測を行う際に、潜在的に関連性のある観測不可能が、モデル出力と観測不能をどのように統合するかにどのように影響するかを理解するために、オンライン実験を行う。
以上の結果から, 観測不可能性に関する提示は, モデル出力と観測不能性を統合する方法を変えることができるが, 必ずしも性能改善につながるとは限らないことが示唆された。
論文 参考訳(メタデータ) (2022-07-28T00:05:14Z) - Empirical Estimates on Hand Manipulation are Recoverable: A Step Towards
Individualized and Explainable Robotic Support in Everyday Activities [80.37857025201036]
ロボットシステムの鍵となる課題は、他のエージェントの振る舞いを理解することである。
正しい推論の処理は、(衝突)因子が実験的に制御されない場合、特に困難である。
人に関する観察研究を行うために必要なツールをロボットに装備することを提案する。
論文 参考訳(メタデータ) (2022-01-27T22:15:56Z) - Amnesic Probing: Behavioral Explanation with Amnesic Counterfactuals [53.484562601127195]
調査結果から行動学的結論を推測できない点を指摘する。
我々は、どの情報がエンコードされているかではなく、その情報がどのように使われているかに焦点を当てた代替手段を提供する。
論文 参考訳(メタデータ) (2020-06-01T15:00:11Z) - A Case for Humans-in-the-Loop: Decisions in the Presence of Erroneous
Algorithmic Scores [85.12096045419686]
本研究では,児童虐待のホットラインスクリーニング決定を支援するアルゴリズムツールの採用について検討した。
まず、ツールがデプロイされたときに人間が行動を変えることを示します。
表示されたスコアが誤ったリスク推定である場合、人間はマシンの推奨に従わない可能性が低いことを示す。
論文 参考訳(メタデータ) (2020-02-19T07:27:32Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。