論文の概要: For Better or Worse: The Impact of Counterfactual Explanations'
Directionality on User Behavior in xAI
- arxiv url: http://arxiv.org/abs/2306.07637v1
- Date: Tue, 13 Jun 2023 09:16:38 GMT
- ステータス: 処理完了
- システム内更新日: 2023-06-14 14:19:31.182399
- Title: For Better or Worse: The Impact of Counterfactual Explanations'
Directionality on User Behavior in xAI
- Title(参考訳): より良いか悪いか:xAIにおける対実的説明の方向性がユーザ行動に及ぼす影響
- Authors: Ulrike Kuhl and Andr\'e Artelt and Barbara Hammer
- Abstract要約: 対物的説明(CFE)は説明可能な人工知能(xAI)の一般的なアプローチである
CFEは、事実状態(上向きCFE)よりも優れているシナリオや、事実状態(下向きCFE)よりも悪いシナリオを記述します。
本研究では,CFEの方向性が参加者の行動と経験に及ぼす影響を自動システムから新たな知識を引き出すために比較した。
- 参考スコア(独自算出の注目度): 6.883906273999368
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Counterfactual explanations (CFEs) are a popular approach in explainable
artificial intelligence (xAI), highlighting changes to input data necessary for
altering a model's output. A CFE can either describe a scenario that is better
than the factual state (upward CFE), or a scenario that is worse than the
factual state (downward CFE). However, potential benefits and drawbacks of the
directionality of CFEs for user behavior in xAI remain unclear. The current
user study (N=161) compares the impact of CFE directionality on behavior and
experience of participants tasked to extract new knowledge from an automated
system based on model predictions and CFEs. Results suggest that upward CFEs
provide a significant performance advantage over other forms of counterfactual
feedback. Moreover, the study highlights potential benefits of mixed CFEs
improving user performance compared to downward CFEs or no explanations. In
line with the performance results, users' explicit knowledge of the system is
statistically higher after receiving upward CFEs compared to downward
comparisons. These findings imply that the alignment between explanation and
task at hand, the so-called regulatory fit, may play a crucial role in
determining the effectiveness of model explanations, informing future research
directions in xAI. To ensure reproducible research, the entire code, underlying
models and user data of this study is openly available:
https://github.com/ukuhl/DirectionalAlienZoo
- Abstract(参考訳): CFEは、説明可能な人工知能(xAI)において一般的なアプローチであり、モデルの出力を変更するために必要な入力データの変更を強調している。
CFEは、事実状態(上向きCFE)よりも優れているシナリオや、事実状態(下向きCFE)よりも悪いシナリオを記述できる。
しかし、xAIにおけるユーザ行動に対するCFEの方向性に関する潜在的な利点と欠点は、まだ不明である。
現在のユーザスタディ(N=161)では、モデル予測とCFEに基づく自動システムから新たな知識を抽出する作業を行う参加者の行動と経験に対するCFEの方向性の影響を比較した。
以上の結果から, 上向きのCFEは, 他の形態の反事実フィードバックに対して大きな性能上の優位性をもたらすことが示唆された。
さらに、この研究は、CFEの混合による潜在的な利点は、下向きのCFEよりもユーザパフォーマンスを改善するか、あるいは説明をしない。
結果と合わせて,システムに対するユーザの明示的な知識は,下方比較と比較して上方cfeを受けた後,統計的に高い。
これらの結果は、モデル説明の有効性を決定する上で重要な役割を担い、将来のxAI研究の方向性を伝えることを示唆している。
再現可能な調査を保証するため、この研究のコード全体、基礎となるモデル、およびユーザデータを公開している。
関連論文リスト
- Explanatory Model Monitoring to Understand the Effects of Feature Shifts on Performance [61.06245197347139]
そこで本研究では,機能シフトによるブラックボックスモデルの振る舞いを説明する新しい手法を提案する。
本稿では,最適輸送と共有値の概念を組み合わせた提案手法について,説明的性能推定として紹介する。
論文 参考訳(メタデータ) (2024-08-24T18:28:19Z) - Value of Information and Reward Specification in Active Inference and POMDPs [7.120454740315046]
期待される自由エネルギー(EFE)は、活動的推論の中心的な量である。
EFEは情報値を用いてベイズ最適RLポリシーを近似することを示す。
論文 参考訳(メタデータ) (2024-08-13T00:32:05Z) - Flexible and Robust Counterfactual Explanations with Minimal Satisfiable
Perturbations [56.941276017696076]
我々は、最小満足度摂動(CEMSP)を用いた対実的説明法という概念的に単純だが効果的な解を提案する。
CEMSPは、意味論的に意味のある正常範囲の助けを借りて、異常な特徴の値を変更することを制限している。
既存の手法と比較して、我々は合成データセットと実世界のデータセットの両方で包括的な実験を行い、柔軟性を維持しつつ、より堅牢な説明を提供することを示した。
論文 参考訳(メタデータ) (2023-09-09T04:05:56Z) - Prediction-Oriented Bayesian Active Learning [51.426960808684655]
予測情報ゲイン(EPIG)は、パラメータではなく予測空間における情報ゲインを測定する。
EPIGは、さまざまなデータセットやモデルにわたるBALDと比較して、予測パフォーマンスが向上する。
論文 参考訳(メタデータ) (2023-04-17T10:59:57Z) - Unlearning Protected User Attributes in Recommendations with Adversarial
Training [10.268369743620159]
協調フィルタリングアルゴリズムは、特定の人口統計やユーザーの保護された情報を含む、基礎となる消費パターンをキャプチャする。
これらの符号化バイアスは、様々な階層のサブグループに提供されるコンテンツのさらなる分離に向けたレコメンデーションシステムの決定に影響を与える可能性がある。
本研究では,RSアルゴリズムの学習的相互作用表現から,ユーザの特定の保護された情報を除去する可能性と課題について検討する。
論文 参考訳(メタデータ) (2022-06-09T13:36:28Z) - Keep Your Friends Close and Your Counterfactuals Closer: Improved
Learning From Closest Rather Than Plausible Counterfactual Explanations in an
Abstract Setting [6.883906273999368]
対実的説明(CFE)は、モデル入力の変更が特定の方法でその予測を変更したことを強調している。
近年の革新は、自動生成されたCFEに対する計算可能性の概念を導入している。
初級ユーザを対象とした反復学習設計において,計算可能なCFEの客観的および主観的ユーザビリティを評価する。
論文 参考訳(メタデータ) (2022-05-11T14:07:57Z) - Let's Go to the Alien Zoo: Introducing an Experimental Framework to
Study Usability of Counterfactual Explanations for Machine Learning [6.883906273999368]
反事実的説明(CFEs)は、心理的に根拠づけられたアプローチとして、ポストホックな説明を生み出している。
私たちは、エンゲージメントがあり、Webベースでゲームに触発された実験的なフレームワークであるAlien Zooを紹介します。
概念実証として,本手法の有効性と実用性を示す。
論文 参考訳(メタデータ) (2022-05-06T17:57:05Z) - Enhancing User' s Income Estimation with Super-App Alternative Data [59.60094442546867]
これは、これらの代替データソースのパフォーマンスと、業界に受け入れられた局の収入推定器のパフォーマンスを比較します。
本論文は、金融機関がリスクプロファイルの構築に代替データを導入しようとする動機を示すものである。
論文 参考訳(メタデータ) (2021-04-12T21:34:44Z) - Generative Counterfactuals for Neural Networks via Attribute-Informed
Perturbation [51.29486247405601]
AIP(Attribute-Informed Perturbation)の提案により,生データインスタンスの反事実を生成するフレームワークを設計する。
異なる属性を条件とした生成モデルを利用することで、所望のラベルとの反事実を効果的かつ効率的に得ることができる。
実世界のテキストや画像に対する実験結果から, 設計したフレームワークの有効性, サンプル品質, および効率が示された。
論文 参考訳(メタデータ) (2021-01-18T08:37:13Z) - Provably Efficient Causal Reinforcement Learning with Confounded
Observational Data [135.64775986546505]
オフラインで収集されたデータセット(観測データ)を組み込んで、オンライン環境でのサンプル効率を改善する方法について検討する。
提案手法は,観測データを効率よく組み込んだ,分解された楽観的値反復 (DOVI) アルゴリズムを提案する。
論文 参考訳(メタデータ) (2020-06-22T14:49:33Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。