論文の概要: Transferable XAI: Relating Understanding Across Domains with Explanation Transfer
- arxiv url: http://arxiv.org/abs/2602.13675v1
- Date: Sat, 14 Feb 2026 08:55:54 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-17 14:17:28.330878
- Title: Transferable XAI: Relating Understanding Across Domains with Explanation Transfer
- Title(参考訳): Transferable XAI: 説明転送によるドメイン間の理解の関連
- Authors: Fei Wang, Yifan Zhang, Brian Y. Lim,
- Abstract要約: 現在の説明可能なAI(XAI)は、ひとつのアプリケーションを説明することに重点を置いているが、関連するアプリケーションに遭遇する場合、ユーザーは事前の理解に依存する可能性がある。
本稿では,ユーザが関連するドメイン間で理解を伝達できるようにTransferable XAIを提案する。
- 参考スコア(独自算出の注目度): 18.43054994386184
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Current Explainable AI (XAI) focuses on explaining a single application, but when encountering related applications, users may rely on their prior understanding from previous explanations. This leads to either overgeneralization and AI overreliance, or burdensome independent memorization. Indeed, related decision tasks can share explanatory factors, but with some notable differences; e.g., body mass index (BMI) affects the risks for heart disease and diabetes at the same rate, but chest pain is more indicative of heart disease. Similarly, models using different attributes for the same task still share signals; e.g., temperature and pressure affect air pollution but in opposite directions due to the ideal gas law. Leveraging transfer of learning, we propose Transferable XAI to enable users to transfer understanding across related domains by explaining the relationship between domain explanations using a general affine transformation framework applied to linear factor explanations. The framework supports explanation transfer across various domain types: translation for data subspace (subsuming prior work on Incremental XAI), scaling for decision task, and mapping for attributes. Focusing on task and attributes domain types, in formative and summative user studies, we investigated how well participants could understand AI decisions from one domain to another. Compared to single-domain and domain-independent explanations, Transferable XAI was the most helpful for understanding the second domain, leading to the best decision faithfulness, factor recall, and ability to relate explanations between domains. This framework contributes to improving the reusability of explanations across related AI applications by explaining factor relationships between subspaces, tasks, and attributes.
- Abstract(参考訳): 現在の説明可能なAI(XAI)は、ひとつのアプリケーションを説明することに重点を置いているが、関連するアプリケーションに遭遇する場合、ユーザーは以前の説明から事前の理解に頼る可能性がある。
これにより、過度に一般化され、AIの過度な信頼性がもたらされる。
実際、関連する決定タスクは説明的要因を共有することができるが、例えば、BMI(Body mass index)は、心臓疾患と糖尿病のリスクに同じ割合で影響を及ぼすが、胸痛は心臓病の指標である。
同様に、同じタスクに異なる属性を使用するモデルは依然として信号を共有している。例えば、温度と圧力は大気汚染に影響を与えるが、理想気体法則によって反対方向に変化する。
学習の伝達を生かしたTransferable XAIを提案し, 一般アフィン変換フレームワークを用いて, 関係ドメイン間の理解を伝達する手法を提案する。
このフレームワークは、データサブスペースの変換(インクリメンタルXAIの以前の作業を仮定する)、意思決定タスクのスケーリング、属性のマッピングなど、さまざまなドメインタイプ間の説明転送をサポートする。
タスクと属性のドメインタイプに着目し,形式的および要約的なユーザスタディにおいて,参加者がひとつのドメインから別のドメインへのAI決定をいかに理解できるかを検討した。
単一のドメインやドメインに依存しない説明と比較すると、Transferable XAIは第2のドメインを理解するのに最も役に立つ。
このフレームワークは、サブスペース、タスク、属性間の要因関係を説明することによって、関連するAIアプリケーション間の説明の再利用性の向上に貢献している。
関連論文リスト
- When Models Know More Than They Can Explain: Quantifying Knowledge Transfer in Human-AI Collaboration [79.69935257008467]
我々は,人間とAIの知識伝達能力に関する概念的かつ実験的フレームワークである知識統合と伝達評価(KITE)を紹介する。
最初の大規模人間実験(N=118)を行い,その測定を行った。
2段階のセットアップでは、まずAIを使って問題解決戦略を思いつき、その後独立してソリューションを実装し、モデル説明が人間の理解に与える影響を分離します。
論文 参考訳(メタデータ) (2025-06-05T20:48:16Z) - Fool Me Once? Contrasting Textual and Visual Explanations in a Clinical Decision-Support Setting [43.110187812734864]
視覚的説明(可用性マップ)、自然言語の説明、両方のモダリティの組み合わせの3種類の説明を評価した。
テキストに基づく説明は、高い信頼度をもたらすことが分かっており、従順マップと組み合わせることで軽減される。
また、説明の質、すなわち、それがどれだけ事実的に正しい情報であり、それがAIの正しさとどの程度一致しているかが、異なる説明タイプの有用性に大きく影響していることも観察します。
論文 参考訳(メタデータ) (2024-10-16T06:43:02Z) - Incremental XAI: Memorable Understanding of AI with Incremental Explanations [13.460427339680168]
本稿では、人間の認知能力を活用して知識を蓄積し、より詳細な説明をインクリメンタルに受け取り、より詳細な説明を提供することを提案する。
我々はインクリメンタルXAIを導入し、一般的なインスタンスと非典型インスタンスの説明を自動的に分割する。
記憶力は、基本因子を再利用し、非典型例で示される因子の数を減らすことで改善される。
論文 参考訳(メタデータ) (2024-04-10T04:38:17Z) - DIGIC: Domain Generalizable Imitation Learning by Causal Discovery [69.13526582209165]
因果性は機械学習と組み合わせて、ドメインの一般化のための堅牢な表現を生成する。
我々は、実証データ分布を活用して、ドメインの一般化可能なポリシーの因果的特徴を発見するために、異なる試みを行っている。
DIGICと呼ばれる新しいフレームワークを設計し、実演データ分布から専門家行動の直接的な原因を見出すことにより因果的特徴を識別する。
論文 参考訳(メタデータ) (2024-02-29T07:09:01Z) - Domain Generalization via Causal Adjustment for Cross-Domain Sentiment
Analysis [59.73582306457387]
クロスドメイン感情分析における領域一般化の問題に焦点をあてる。
本稿では,ドメイン固有表現とドメイン不変表現をアンタングル化するバックドア調整に基づく因果モデルを提案する。
一連の実験は、我々のモデルの優れたパフォーマンスと堅牢性を示しています。
論文 参考訳(メタデータ) (2024-02-22T13:26:56Z) - Explaining Explainability: Towards Deeper Actionable Insights into Deep
Learning through Second-order Explainability [70.60433013657693]
2階説明可能なAI(SOXAI)は、最近インスタンスレベルからデータセットレベルまで説明可能なAI(XAI)を拡張するために提案されている。
そこで本研究では,SOXAIの動作可能な洞察に基づくトレーニングセットから無関係な概念を除外することで,モデルの性能を向上させることができることを示す。
論文 参考訳(メタデータ) (2023-06-14T23:24:01Z) - Interactive Explanations by Conflict Resolution via Argumentative
Exchanges [12.853610887703253]
我々は,エージェント(AIモデルと人間)間の紛争解決の枠組みとして,計算的議論を活用することで,対話的な説明に焦点をあてる。
具体的には,マルチエージェントシステムにおける動的共有のためのArgumentative eXchanges(AXs)を定義する。
次に、マシンと人間がマシンの予測について対話するXAI設定にAXをデプロイする。
論文 参考訳(メタデータ) (2023-03-27T09:15:48Z) - Learning Domain Invariant Representations for Generalizable Person
Re-Identification [71.35292121563491]
ReID(Generalizable person Re-Identification)は、最近のコンピュータビジョンコミュニティで注目を集めている。
DIR-ReID(Domain Invariant Representations for Generalizable Person Re-Identification)という新しい一般化フレームワークを提案する。
論文 参考訳(メタデータ) (2021-03-29T18:59:48Z) - Selecting Data Augmentation for Simulating Interventions [12.848239550098693]
純粋に観察データで訓練された機械学習モデルと経験的リスクの原則は、目に見えない領域に一般化することができない。
我々は、データ拡張の成功を説明するために、観察されたドメインとタスクラベルの急激な相関を弱める方法を説明するために、因果的概念を用いることができると論じる。
論文 参考訳(メタデータ) (2020-05-04T21:33:29Z) - Explainable Deep Classification Models for Domain Generalization [94.43131722655617]
説明は、深い分類網が決定を下す視覚的証拠の領域として定義される。
トレーニング戦略は周期的な正当性に基づくフィードバックを強制し、モデルが地中真実に直接対応する画像領域に焦点を合わせることを奨励する。
論文 参考訳(メタデータ) (2020-03-13T22:22:15Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。