論文の概要: Towards Spatially-Aware and Optimally Faithful Concept-Based Explanations
- arxiv url: http://arxiv.org/abs/2504.10833v1
- Date: Tue, 15 Apr 2025 03:24:13 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-04-16 22:12:11.951951
- Title: Towards Spatially-Aware and Optimally Faithful Concept-Based Explanations
- Title(参考訳): 空間的認識と最適信仰的概念に基づく説明に向けて
- Authors: Shubham Kumar, Dwip Dalal, Narendra Ahuja,
- Abstract要約: ポストホックで教師なしの概念に基づく説明法(U-CBEM)は、ディープニューラルネットワークにおける意思決定プロセスの意味論的説明を生成するための有望なツールである。
正確な評価を阻害する先行忠実度指標のいくつかの制限を同定する。
本研究では、空間的に認識された代理と2つの新しい忠実度指標を導入する評価手法であるSurrogate Faithfulness (SF)を用いて、これらの制限に対処する。
- 参考スコア(独自算出の注目度): 9.34674232134837
- License:
- Abstract: Post-hoc, unsupervised concept-based explanation methods (U-CBEMs) are a promising tool for generating semantic explanations of the decision-making processes in deep neural networks, having applications in both model improvement and understanding. It is vital that the explanation is accurate, or faithful, to the model, yet we identify several limitations of prior faithfulness metrics that inhibit an accurate evaluation; most notably, prior metrics involve only the set of concepts present, ignoring how they may be spatially distributed. We address these limitations with Surrogate Faithfulness (SF), an evaluation method that introduces a spatially-aware surrogate and two novel faithfulness metrics. Using SF, we produce Optimally Faithful (OF) explanations, where concepts are found that maximize faithfulness. Our experiments show that (1) adding spatial-awareness to prior U-CBEMs increases faithfulness in all cases; (2) OF produces significantly more faithful explanations than prior U-CBEMs (30% or higher improvement in error); (3) OF's learned concepts generalize well to out-of-domain data and are more robust to adversarial examples, where prior U-CBEMs struggle.
- Abstract(参考訳): ポストホックで教師なしの概念に基づく説明法(U-CBEM)は、ディープニューラルネットワークにおける意思決定プロセスの意味論的説明を生成するための有望なツールであり、モデルの改善と理解の両方に応用されている。
モデルに対する説明が正確であること、あるいは忠実であることは不可欠であるが、正確な評価を阻害する先行忠実度指標のいくつかの制限を特定する。
本研究では、空間的に認識された代理と2つの新しい忠実度指標を導入する評価手法であるSurrogate Faithfulness (SF)を用いて、これらの制限に対処する。
SFを用いてOF(Optimally Faithful)を説明する。
実験の結果,(1)先行U-CBEMに空間認識を加えると,すべてのケースにおいて忠実さが向上し,(2)先行U-CBEMよりもはるかに忠実な説明が得られ(30%以上の誤り改善),(3)先行U-CBEMが苦戦する敵の例に対して,OFの学習概念がより一般化され,堅牢であることがわかった。
関連論文リスト
- Towards Robust and Reliable Concept Representations: Reliability-Enhanced Concept Embedding Model [22.865870813626316]
概念ボトルネックモデル(Concept Bottleneck Models, CBM)は、人間の理解可能な概念を意思決定の中間体として予測することにより、解釈可能性を高めることを目的としている。
概念に関係のない特徴に対する感受性と、異なるサンプルの同じ概念に対する意味的一貫性の欠如である。
本稿では,Reliability-Enhanced Concept Embedding Model (RECEM) を提案する。Reliability-Enhanced Concept Embedding Model (RECEM) は2つの戦略を導入する。
論文 参考訳(メタデータ) (2025-02-03T09:29:39Z) - Concept-Based Explainable Artificial Intelligence: Metrics and Benchmarks [0.0]
概念に基づく説明手法は、機械学習モデルの解釈可能性を改善することを目的としている。
本稿では,大域的重要度,概念存在度,概念位置度という3つの指標を提案する。
多くの場合、ポストホックCBMによって決定される最も重要な概念でさえ、入力画像には存在しないことが示される。
論文 参考訳(メタデータ) (2025-01-31T16:32:36Z) - Concept-driven Off Policy Evaluation [2.789652596206117]
我々は、概念に基づくOPE推定器のファミリーを開発し、それらが偏りのないままであり、概念が知られ、事前定義されたときにばらつきを減らすことを証明した。
合成および実世界のデータセットを用いた実験により、既知のおよび学習された概念ベース推定器の両方がOPE性能を著しく向上させることが示された。
他のOPE法とは異なり、概念ベースの推定器は容易に解釈可能であり、特定の概念に対する標的的介入を可能にし、これらの推定器の品質をさらに向上させる。
論文 参考訳(メタデータ) (2024-11-28T22:15:06Z) - MulCPred: Learning Multi-modal Concepts for Explainable Pedestrian Action Prediction [57.483718822429346]
MulCPredは、トレーニングサンプルで表されるマルチモーダルな概念に基づいて、その予測を説明する。
MulCPredは複数のデータセットとタスクで評価される。
論文 参考訳(メタデータ) (2024-09-14T14:15:28Z) - Rethinking State Disentanglement in Causal Reinforcement Learning [78.12976579620165]
因果性は、根底にある状態が識別可能性によって一意に回復できることを保証するための厳密な理論的支援を提供する。
我々はこの研究ラインを再考し、RL固有のコンテキストを取り入れることで、潜在状態に対する以前の識別可能性分析における不要な仮定を低減できることを示した。
本稿では, 従来手法の複雑な構造制約を, 遷移と報酬保存の2つの簡単な制約に置き換えることにより, 一般に部分的に観測可能なマルコフ決定過程(POMDP)を提案する。
論文 参考訳(メタデータ) (2024-08-24T06:49:13Z) - Evaluating Readability and Faithfulness of Concept-based Explanations [35.48852504832633]
概念に基づく説明は、大規模言語モデルによって学習された高レベルのパターンを説明するための有望な道として現れます。
現在の手法は、統一的な形式化を欠いた異なる視点から概念にアプローチする。
これにより、概念の中核となる尺度、すなわち忠実さや可読性を評価するのが難しくなります。
論文 参考訳(メタデータ) (2024-04-29T09:20:25Z) - Faithful Explanations of Black-box NLP Models Using LLM-generated
Counterfactuals [67.64770842323966]
NLPシステムの予測に関する因果的説明は、安全性を確保し、信頼を確立するために不可欠である。
既存の手法は、しばしばモデル予測を効果的または効率的に説明できない。
本稿では, 対物近似(CF)の2つの手法を提案する。
論文 参考訳(メタデータ) (2023-10-01T07:31:04Z) - DARE: Towards Robust Text Explanations in Biomedical and Healthcare
Applications [54.93807822347193]
帰属ロバスト性評価手法を与えられたドメインに適応させ、ドメイン固有の妥当性を考慮する方法を示す。
次に,DAREが特徴とする脆さを軽減するために,対人訓練とFAR訓練の2つの方法を提案する。
最後に,確立した3つのバイオメディカル・ベンチマークを用いて実験を行い,本手法を実証的に検証した。
論文 参考訳(メタデータ) (2023-07-05T08:11:40Z) - Regularizing Variational Autoencoder with Diversity and Uncertainty
Awareness [61.827054365139645]
変分オートエンコーダ(VAE)は、償却変分推論に基づいて潜伏変数の後部を近似する。
よりディバースで不確実な潜在空間を学習するための代替モデルDU-VAEを提案する。
論文 参考訳(メタデータ) (2021-10-24T07:58:13Z) - Entity Concept-enhanced Few-shot Relation Extraction [35.10974511223129]
長尾分布問題において,FSRE (Few-shot relation extract) が重要である。
ほとんどの既存のFSREアルゴリズムは、認識されたエンティティペアと共に文の情報に基づいて関係を正確に分類することができない。
本稿では,エンティティ固有の概念を導入し,関係予測の手がかりを提供する,エンティティ強化型FEw-shot Relation extract scheme(ConceptFERE)を提案する。
論文 参考訳(メタデータ) (2021-06-04T10:36:49Z) - Multivariate Deep Evidential Regression [77.34726150561087]
不確実性を認識するニューラルネットワークによる新しいアプローチは、従来の決定論的手法よりも有望である。
本稿では,レグレッションベースニューラルネットワークからアレータ性およびてんかん性不確かさを抽出する手法を提案する。
論文 参考訳(メタデータ) (2021-04-13T12:20:18Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。