論文の概要: Comparables XAI: Faithful Example-based AI Explanations with Counterfactual Trace Adjustments
- arxiv url: http://arxiv.org/abs/2602.13784v1
- Date: Sat, 14 Feb 2026 14:00:47 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-17 14:17:28.42176
- Title: Comparables XAI: Faithful Example-based AI Explanations with Counterfactual Trace Adjustments
- Title(参考訳): Comparables XAI: 現実的トレース調整による忠実な例ベースのAI説明
- Authors: Yifan Zhang, Tianle Ren, Fei Wang, Brian Y Lim,
- Abstract要約: トレース調整された比較対象は、線形回帰よりも高いXAI忠実度と精度、ユーザ精度、および最も狭い不確実性境界を達成する。
この研究は、AI決定のユーザ理解を改善するためにサンプルベースの説明を使用するための、新たな分析基盤に寄与する。
- 参考スコア(独自算出の注目度): 16.87117799636182
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Explaining with examples is an intuitive way to justify AI decisions. However, it is challenging to understand how a decision value should change relative to the examples with many features differing by large amounts. We draw from real estate valuation that uses Comparables-examples with known values for comparison. Estimates are made more accurate by hypothetically adjusting the attributes of each Comparable and correspondingly changing the value based on factors. We propose Comparables XAI for relatable example-based explanations of AI with Trace adjustments that trace counterfactual changes from each Comparable to the Subject, one attribute at a time, monotonically along the AI feature space. In modelling and user studies, Trace-adjusted Comparables achieved the highest XAI faithfulness and precision, user accuracy, and narrowest uncertainty bounds compared to linear regression, linearly adjusted Comparables, or unadjusted Comparables. This work contributes a new analytical basis for using example-based explanations to improve user understanding of AI decisions.
- Abstract(参考訳): 例で説明することは、AIの決定を正当化する直感的な方法です。
しかし、多くの特徴がある例と比較して、意思決定の価値がどのように変化するかを理解することは困難である。
我々は、比較のために既知の値と比較可能なサンプルを使用した不動産評価から引き出す。
比較可能な各属性を仮説的に調整し、因子に基づいて値を変更することにより、推定をより正確にする。
本稿では,AI特徴空間の単調に1つの属性である各対象に対する反実的変化をトレースするトレース調整を用いたAIの相対的例に基づく説明のためのComparables XAIを提案する。
モデリングとユーザスタディにおいて,Trace-adjusted Comparablesは線形回帰,線形調整されたComparables,あるいは調整されていないComparablesと比較して,XAIの忠実度と精度,ユーザ精度,および最も狭い不確実性境界を達成した。
この研究は、AI決定のユーザ理解を改善するためにサンプルベースの説明を使用するための、新たな分析基盤に寄与する。
関連論文リスト
- From Abstract to Actionable: Pairwise Shapley Values for Explainable AI [0.8192907805418583]
提案するPairwise Shapley Valuesは,特徴属性を明示的,人間関連性のある比較に基礎を置く新しいフレームワークである。
本手法では,一値命令と組み合わせたペアワイズ参照選択を導入し,直観的,モデルに依存しない説明を行う。
Pairwise Shapley Valuesは多種多様な回帰・分類シナリオにおける解釈可能性を高めることを実証する。
論文 参考訳(メタデータ) (2025-02-18T04:20:18Z) - Re-Visiting Explainable AI Evaluation Metrics to Identify The Most Informative Features [0.0]
関数性またはプロキシベースのアプローチは、人工知能手法の品質を評価するために使用されるアプローチの1つである。
その中では、選択性(Selectivity)やRemOve And Retrain(ROAR)、Permutation Importance(PI)が最も一般的に使用されるメトリクスである。
本稿では,ROAR や IP が実装された場合のモデルの上と下の境界を予測するための予測精度区間 (EAI) を提案する。
論文 参考訳(メタデータ) (2025-01-31T17:18:43Z) - Using LLMs for Explaining Sets of Counterfactual Examples to Final Users [0.0]
自動意思決定シナリオでは、因果推論手法は基礎となるデータ生成プロセスを分析することができる。
カウンターファクトな例では、最小限の要素が変更される仮説的なシナリオを探求する。
本稿では,アクションの自然言語説明を生成するために,反事実を用いた新しい多段階パイプラインを提案する。
論文 参考訳(メタデータ) (2024-08-27T15:13:06Z) - Context-aware feature attribution through argumentation [0.0]
我々はCA-FATA (Context-Aware Feature Attribution Through Argumentation) と呼ばれる新しい特徴属性フレームワークを定義する。
我々のフレームワークは、各特徴を、予測を支援したり、攻撃したり、中和したりできる議論として扱うことによって、議論の力を利用する。
論文 参考訳(メタデータ) (2023-10-24T20:02:02Z) - DeforestVis: Behavior Analysis of Machine Learning Models with Surrogate Decision Stumps [46.58231605323107]
複雑なMLモデルの振る舞いを要約する視覚解析ツールであるDeforestVisを提案する。
DeforestVisは、より多くの切り株をインクリメンタルに生成することで、複雑さとフィデリティのトレードオフを探索するのに役立つ。
DeforestVisの適用性と有用性について,2つのユースケースと,データアナリストとモデル開発者とのエキスパートインタビューで紹介する。
論文 参考訳(メタデータ) (2023-03-31T21:17:15Z) - Instance-optimality in optimal value estimation: Adaptivity via
variance-reduced Q-learning [99.34907092347733]
本稿では,マルコフ決定過程における最適な$Q$値関数を離散状態と動作で推定する問題を解析する。
局所的なミニマックスフレームワークを用いて、この関数は任意の推定手順の精度の低い境界に現れることを示す。
他方,Q$ラーニングの分散還元版を解析することにより,状態と行動空間の対数的要因まで,下位境界のシャープさを確立する。
論文 参考訳(メタデータ) (2021-06-28T00:38:54Z) - Explainable AI by BAPC -- Before and After correction Parameter
Comparison [0.0]
より単純な'ベース'モデルを補正するAIモデルのための局所的なサロゲートは、AI予測の説明を得るための分析方法を表す。
AIモデルは線形モデルの残差誤差を近似し、その説明は解釈可能な基底モデルのパラメータの変化の観点から定式化される。
論文 参考訳(メタデータ) (2021-03-12T09:03:51Z) - Interpretable Multi-dataset Evaluation for Named Entity Recognition [110.64368106131062]
本稿では,名前付きエンティティ認識(NER)タスクに対する一般的な評価手法を提案する。
提案手法は,モデルとデータセットの違いと,それらの間の相互作用を解釈することを可能にする。
分析ツールを利用可能にすることで、将来の研究者が同様の分析を実行し、この分野の進歩を促進することができる。
論文 参考訳(メタデータ) (2020-11-13T10:53:27Z) - Learning What Makes a Difference from Counterfactual Examples and
Gradient Supervision [57.14468881854616]
ニューラルネットワークの一般化能力を改善するための補助的学習目標を提案する。
我々は、異なるラベルを持つ最小差の例のペア、すなわち反ファクトまたはコントラストの例を使用し、タスクの根底にある因果構造を示す信号を与える。
このテクニックで訓練されたモデルは、配布外テストセットのパフォーマンスを向上させる。
論文 参考訳(メタデータ) (2020-04-20T02:47:49Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。