論文の概要: Guidelines For The Choice Of The Baseline in XAI Attribution Methods
- arxiv url: http://arxiv.org/abs/2503.19813v1
- Date: Tue, 25 Mar 2025 16:25:04 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-03-26 16:49:55.462532
- Title: Guidelines For The Choice Of The Baseline in XAI Attribution Methods
- Title(参考訳): XAIアトリビューション手法におけるベースラインの選択ガイドライン
- Authors: Cristian Morasso, Giorgio Dolci, Ilaria Boscolo Galazzo, Sergey M. Plis, Gloria Menegaz,
- Abstract要約: 本稿では、通常「ベースライン」と呼ばれる「中立」刺激に依存するネットワーク入力における特徴属性マップの導出を目的とする。
ネットワーク動作の説明を決定するため、ベースラインの選択は不可欠である。
そこで本研究では,定義上,決定境界上にある基本線が自然に探索領域となるため,決定境界サンプリング手法を提案する。
- 参考スコア(独自算出の注目度): 3.317306739822005
- License:
- Abstract: Given the broad adoption of artificial intelligence, it is essential to provide evidence that AI models are reliable, trustable, and fair. To this end, the emerging field of eXplainable AI develops techniques to probe such requirements, counterbalancing the hype pushing the pervasiveness of this technology. Among the many facets of this issue, this paper focuses on baseline attribution methods, aiming at deriving a feature attribution map at the network input relying on a "neutral" stimulus usually called "baseline". The choice of the baseline is crucial as it determines the explanation of the network behavior. In this framework, this paper has the twofold goal of shedding light on the implications of the choice of the baseline and providing a simple yet effective method for identifying the best baseline for the task. To achieve this, we propose a decision boundary sampling method, since the baseline, by definition, lies on the decision boundary, which naturally becomes the search domain. Experiments are performed on synthetic examples and validated relying on state-of-the-art methods. Despite being limited to the experimental scope, this contribution is relevant as it offers clear guidelines and a simple proxy for baseline selection, reducing ambiguity and enhancing deep models' reliability and trust.
- Abstract(参考訳): 人工知能が広く採用されていることを考えると、AIモデルは信頼性があり、信頼性があり、公平であることを示すことが不可欠である。
この目的のために、eXplainable AIの新興分野は、このような要件を探索する技術を開発し、この技術の広範性を押し上げる誇大宣伝に対抗している。
本稿では,通常「ベースライン」と呼ばれる「中立的」刺激に依存するネットワーク入力における特徴帰属マップの導出を目的とした,ベースライン帰属法に焦点を当てた。
ネットワーク動作の説明を決定するため、ベースラインの選択は不可欠である。
本稿では,ベースライン選択の意義について,その2つの目的について述べるとともに,タスクの最適なベースラインを特定するための,シンプルかつ効果的な方法を提案する。
そこで本研究では,定義上,決定境界の上にベースラインを置き,自然に探索領域となる決定境界サンプリング手法を提案する。
実験は合成例で行われ、最先端の手法に依存して検証される。
実験範囲に限定されているにもかかわらず、この貢献は明確なガイドラインとベースライン選択のためのシンプルなプロキシを提供し、曖昧さを減らし、ディープモデルの信頼性と信頼性を高めるため、関係している。
関連論文リスト
- Iterative Preference Learning from Human Feedback: Bridging Theory and Practice for RLHF under KL-Constraint [56.74058752955209]
本稿では,RLHFによる強化学習を用いた生成モデルのアライメント過程について検討する。
まず、オフラインPPOやオフラインDPOのような既存の一般的な手法の主な課題を、環境の戦略的探索に欠如していると認識する。
有限サンプル理論保証を用いた効率的なアルゴリズムを提案する。
論文 参考訳(メタデータ) (2023-12-18T18:58:42Z) - Understanding the (Extra-)Ordinary: Validating Deep Model Decisions with Prototypical Concept-based Explanations [13.60538902487872]
本稿では, 実例的(地域的)かつクラス的(グローバル的)な意思決定戦略をプロトタイプを通じて伝達する, ポストホックなコンセプトベースXAIフレームワークを提案する。
我々は,3つのデータセットにまたがるアウト・オブ・ディストリビューション・サンプル,突発的なモデル行動,データ品質問題同定におけるアプローチの有効性を実証する。
論文 参考訳(メタデータ) (2023-11-28T10:53:26Z) - Learning Transferable Conceptual Prototypes for Interpretable
Unsupervised Domain Adaptation [79.22678026708134]
本稿では,Transferable Prototype Learning (TCPL) という,本質的に解釈可能な手法を提案する。
この目的を達成するために、ソースドメインからターゲットドメインにカテゴリの基本概念を転送する階層的なプロトタイプモジュールを設計し、基礎となる推論プロセスを説明するためにドメイン共有プロトタイプを学習する。
総合的な実験により,提案手法は有効かつ直感的な説明を提供するだけでなく,従来の最先端技術よりも優れていることが示された。
論文 参考訳(メタデータ) (2023-10-12T06:36:41Z) - Optimizing Solution-Samplers for Combinatorial Problems: The Landscape
of Policy-Gradient Methods [52.0617030129699]
本稿では,DeepMatching NetworksとReinforcement Learningメソッドの有効性を解析するための新しい理論フレームワークを提案する。
我々の主な貢献は、Max- and Min-Cut、Max-$k$-Bipartite-Bi、Maximum-Weight-Bipartite-Bi、Traveing Salesman Problemを含む幅広い問題である。
本分析の副産物として,バニラ降下による新たな正則化プロセスを導入し,失効する段階的な問題に対処し,悪い静止点から逃れる上で有効であることを示す理論的および実験的証拠を提供する。
論文 参考訳(メタデータ) (2023-10-08T23:39:38Z) - DARE: Towards Robust Text Explanations in Biomedical and Healthcare
Applications [54.93807822347193]
帰属ロバスト性評価手法を与えられたドメインに適応させ、ドメイン固有の妥当性を考慮する方法を示す。
次に,DAREが特徴とする脆さを軽減するために,対人訓練とFAR訓練の2つの方法を提案する。
最後に,確立した3つのバイオメディカル・ベンチマークを用いて実験を行い,本手法を実証的に検証した。
論文 参考訳(メタデータ) (2023-07-05T08:11:40Z) - Robust Deep Learning for Autonomous Driving [0.0]
モデル信頼度を確実に推定する新しい基準を導入する:真のクラス確率(TCP)
真のクラスは本質的にテスト時に未知であるため、補助モデルを用いてデータからTCPの基準を学習し、この文脈に適応した特定の学習スキームを導入することを提案する。
本研究は, 既知モデルに基づく新たな不確実性尺度を導入することで, 誤分類と分布外サンプルを共同で検出する課題に対処する。
論文 参考訳(メタデータ) (2022-11-14T22:07:11Z) - Uncertainty-aware LiDAR Panoptic Segmentation [21.89063036529791]
本稿では,LiDAR点雲を用いた不確実性を考慮したパノプティックセグメンテーションの課題を解決するための新しいアプローチを提案する。
提案するEvLPSNetネットワークは,この課題をサンプリング不要で効率的に解決する最初の方法である。
我々は、最先端のパン光学セグメンテーションネットワークとサンプリング不要不確実性推定技術を組み合わせた、いくつかの強力なベースラインを提供する。
論文 参考訳(メタデータ) (2022-10-10T07:54:57Z) - Time to Focus: A Comprehensive Benchmark Using Time Series Attribution
Methods [4.9449660544238085]
本論文は時系列解析といくつかの最先端属性手法のベンチマークに焦点をあてる。
本実験では, 勾配および摂動に基づく帰属法について検討した。
その結果,最も適した帰属法を選択することは,所望のユースケースと強く相関していることが示唆された。
論文 参考訳(メタデータ) (2022-02-08T10:06:13Z) - A Simple Information-Based Approach to Unsupervised Domain-Adaptive
Aspect-Based Sentiment Analysis [58.124424775536326]
本稿では,相互情報に基づくシンプルだが効果的な手法を提案し,それらの用語を抽出する。
実験の結果,提案手法はクロスドメインABSAの最先端手法よりも4.32%高い性能を示した。
論文 参考訳(メタデータ) (2022-01-29T10:18:07Z) - Guided Uncertainty-Aware Policy Optimization: Combining Learning and
Model-Based Strategies for Sample-Efficient Policy Learning [75.56839075060819]
従来のロボットのアプローチは、環境の正確なモデル、タスクの実行方法の詳細な説明、現在の状態を追跡するための堅牢な認識システムに依存している。
強化学習アプローチは、タスクを記述するための報酬信号だけで、生の感覚入力から直接操作することができるが、非常にサンプル非効率で脆弱である。
本研究では,ロボットの知覚・運動パイプラインにおける不正確さを克服できる一般的な手法を得るために,モデルに基づく手法の強みと学習に基づく手法の柔軟性を組み合わせる。
論文 参考訳(メタデータ) (2020-05-21T19:47:05Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。