論文の概要: Keep Your Friends Close and Your Counterfactuals Closer: Improved
Learning From Closest Rather Than Plausible Counterfactual Explanations in an
Abstract Setting
- arxiv url: http://arxiv.org/abs/2205.05515v1
- Date: Wed, 11 May 2022 14:07:57 GMT
- ステータス: 処理完了
- システム内更新日: 2022-05-12 23:33:26.774614
- Title: Keep Your Friends Close and Your Counterfactuals Closer: Improved
Learning From Closest Rather Than Plausible Counterfactual Explanations in an
Abstract Setting
- Title(参考訳): 友人の近さと反事実の近さ: 抽象的な設定において、最も近いものから学ぶことを改善する
- Authors: Ulrike Kuhl and Andr\'e Artelt and Barbara Hammer
- Abstract要約: 対実的説明(CFE)は、モデル入力の変更が特定の方法でその予測を変更したことを強調している。
近年の革新は、自動生成されたCFEに対する計算可能性の概念を導入している。
初級ユーザを対象とした反復学習設計において,計算可能なCFEの客観的および主観的ユーザビリティを評価する。
- 参考スコア(独自算出の注目度): 6.883906273999368
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Counterfactual explanations (CFEs) highlight what changes to a model's input
would have changed its prediction in a particular way. CFEs have gained
considerable traction as a psychologically grounded solution for explainable
artificial intelligence (XAI). Recent innovations introduce the notion of
computational plausibility for automatically generated CFEs, enhancing their
robustness by exclusively creating plausible explanations. However, practical
benefits of such a constraint on user experience and behavior is yet unclear.
In this study, we evaluate objective and subjective usability of
computationally plausible CFEs in an iterative learning design targeting novice
users. We rely on a novel, game-like experimental design, revolving around an
abstract scenario. Our results show that novice users actually benefit less
from receiving computationally plausible rather than closest CFEs that produce
minimal changes leading to the desired outcome. Responses in a post-game survey
reveal no differences in terms of subjective user experience between both
groups. Following the view of psychological plausibility as comparative
similarity, this may be explained by the fact that users in the closest
condition experience their CFEs as more psychologically plausible than the
computationally plausible counterpart. In sum, our work highlights a
little-considered divergence of definitions of computational plausibility and
psychological plausibility, critically confirming the need to incorporate human
behavior, preferences and mental models already at the design stages of XAI
approaches. In the interest of reproducible research, all source code, acquired
user data, and evaluation scripts of the current study are available:
https://github.com/ukuhl/PlausibleAlienZoo
- Abstract(参考訳): 対実的説明(CFE)は、モデル入力の変更が特定の方法で予測を変更したことを強調している。
CFEは、説明可能な人工知能(XAI)のための心理的基盤のソリューションとして、かなりの注目を集めている。
最近の技術革新は、自動生成cfeの計算可能性の概念を導入し、その頑健性を高める。
しかし,このような制約がユーザエクスペリエンスや行動に与える影響は,まだ不明である。
本研究では,初級ユーザを対象とした反復学習設計において,計算可能なCFEの客観的および主観的ユーザビリティを評価する。
私たちは、抽象的なシナリオを中心に展開する、ゲームのような新しい実験デザインに依存しています。
以上の結果から,初歩的なユーザは,望まれる結果につながる最小限の変更を生み出す最も近いCFEよりも,計算上妥当なメリットが少ないことがわかった。
ゲーム後調査における回答は,両グループ間の主観的ユーザエクスペリエンスの差異を示さなかった。
心理学的妥当性を比較的類似性として考えると、最も近い条件のユーザがCFEを計算学的に妥当なものよりも心理的に妥当な体験をしているという事実によって説明できる。
要約すると、我々の研究は、XAIアプローチの設計段階において、人間の行動、嗜好、精神モデルを組み込むことの必要性を批判的に確認し、計算の可否と心理的可否の定義の微妙な相違を強調している。
再現可能な研究の関心事として、すべてのソースコード、取得したユーザデータ、現在の研究の評価スクリプトが利用可能である。
関連論文リスト
- Introducing User Feedback-based Counterfactual Explanations (UFCE) [49.1574468325115]
対実的説明(CE)は、XAIで理解可能な説明を生成するための有効な解決策として浮上している。
UFCEは、アクション可能な機能のサブセットで最小限の変更を決定するために、ユーザー制約を含めることができる。
UFCEは、textitproximity(英語版)、textitsparsity(英語版)、textitfeasibility(英語版)の2つのよく知られたCEメソッドより優れている。
論文 参考訳(メタデータ) (2024-02-26T20:09:44Z) - LaPLACE: Probabilistic Local Model-Agnostic Causal Explanations [1.0370398945228227]
本稿では,機械学習モデルに対する確率論的原因・効果説明を提供するLaPLACE-Explainerを紹介する。
LaPLACE-Explainerコンポーネントはマルコフ毛布の概念を利用して、関連する特徴と非関連する特徴の間の統計的境界を確立する。
提案手法は,LIME と SHAP の局所的精度と特徴の整合性の観点から,因果的説明と性能を向上する。
論文 参考訳(メタデータ) (2023-10-01T04:09:59Z) - Flexible and Robust Counterfactual Explanations with Minimal Satisfiable
Perturbations [56.941276017696076]
我々は、最小満足度摂動(CEMSP)を用いた対実的説明法という概念的に単純だが効果的な解を提案する。
CEMSPは、意味論的に意味のある正常範囲の助けを借りて、異常な特徴の値を変更することを制限している。
既存の手法と比較して、我々は合成データセットと実世界のデータセットの両方で包括的な実験を行い、柔軟性を維持しつつ、より堅牢な説明を提供することを示した。
論文 参考訳(メタデータ) (2023-09-09T04:05:56Z) - For Better or Worse: The Impact of Counterfactual Explanations'
Directionality on User Behavior in xAI [6.883906273999368]
対物的説明(CFE)は説明可能な人工知能(xAI)の一般的なアプローチである
CFEは、事実状態(上向きCFE)よりも優れているシナリオや、事実状態(下向きCFE)よりも悪いシナリオを記述します。
本研究では,CFEの方向性が参加者の行動と経験に及ぼす影響を自動システムから新たな知識を引き出すために比較した。
論文 参考訳(メタデータ) (2023-06-13T09:16:38Z) - ASPEST: Bridging the Gap Between Active Learning and Selective
Prediction [56.001808843574395]
選択予測は、不確実な場合の予測を棄却する信頼性のあるモデルを学ぶことを目的としている。
アクティブラーニングは、最も有意義な例を問うことで、ラベリングの全体、すなわち人間の依存度を下げることを目的としている。
本研究では,移動対象領域からより情報のあるサンプルを検索することを目的とした,新たな学習パラダイムである能動的選択予測を導入する。
論文 参考訳(メタデータ) (2023-04-07T23:51:07Z) - VCNet: A self-explaining model for realistic counterfactual generation [52.77024349608834]
事実的説明は、機械学習の決定を局所的に説明するための手法のクラスである。
本稿では,予測器と対実生成器を組み合わせたモデルアーキテクチャであるVCNet-Variational Counter Netを提案する。
我々はVCNetが予測を生成でき、また、別の最小化問題を解くことなく、反現実的な説明を生成できることを示した。
論文 参考訳(メタデータ) (2022-12-21T08:45:32Z) - Scaling Laws Beyond Backpropagation [64.0476282000118]
因果デコーダのみの変換器を効率的に訓練するための直接フィードバックアライメントの有効性について検討した。
DFAはバックプロパゲーションよりも効率的なスケーリングを提供していないことが分かりました。
論文 参考訳(メタデータ) (2022-10-26T10:09:14Z) - Meta-Wrapper: Differentiable Wrapping Operator for User Interest
Selection in CTR Prediction [97.99938802797377]
クリックスルー率(CTR)予測は、ユーザーが商品をクリックする確率を予測することを目的としており、リコメンデーションシステムにおいてますます重要になっている。
近年,ユーザの行動からユーザの興味を自動的に抽出する深層学習モデルが大きな成功を収めている。
そこで我々は,メタラッパー(Meta-Wrapper)と呼ばれるラッパー手法の枠組みに基づく新しい手法を提案する。
論文 参考訳(メタデータ) (2022-06-28T03:28:15Z) - Let's Go to the Alien Zoo: Introducing an Experimental Framework to
Study Usability of Counterfactual Explanations for Machine Learning [6.883906273999368]
反事実的説明(CFEs)は、心理的に根拠づけられたアプローチとして、ポストホックな説明を生み出している。
私たちは、エンゲージメントがあり、Webベースでゲームに触発された実験的なフレームワークであるAlien Zooを紹介します。
概念実証として,本手法の有効性と実用性を示す。
論文 参考訳(メタデータ) (2022-05-06T17:57:05Z) - DISSECT: Disentangled Simultaneous Explanations via Concept Traversals [33.65478845353047]
DISSECTは、ディープラーニングモデル推論を説明するための新しいアプローチである。
DISSECTは、分類器の信号から生成モデルを訓練することにより、異なる概念の分類器固有の「名詞」を発見する方法を提供する。
DISSECTは,複数の概念を分離し,共同訓練による推論と結合したCTを生成する。
論文 参考訳(メタデータ) (2021-05-31T17:11:56Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。