論文の概要: Attribution Explanations for Deep Neural Networks: A Theoretical Perspective
- arxiv url: http://arxiv.org/abs/2508.07636v1
- Date: Mon, 11 Aug 2025 05:41:20 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-08-12 21:23:28.957429
- Title: Attribution Explanations for Deep Neural Networks: A Theoretical Perspective
- Title(参考訳): ディープニューラルネットワークの属性説明:理論的展望
- Authors: Huiqi Deng, Hongbin Pei, Quanshi Zhang, Mengnan Du,
- Abstract要約: 我々は、忠実性の問題が帰属説明の信頼性と実用性を損なうと論じている。
最近の理論的進歩は、これらの課題に取り組むための有望な方法を提供する。
我々は、これらの研究が理論的理解を深め、方法の選択を知らせ、新しい帰属法を刺激する上でどのように役立つかについての洞察を提供する。
- 参考スコア(独自算出の注目度): 37.96772653836404
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Attribution explanation is a typical approach for explaining deep neural networks (DNNs), inferring an importance or contribution score for each input variable to the final output. In recent years, numerous attribution methods have been developed to explain DNNs. However, a persistent concern remains unresolved, i.e., whether and which attribution methods faithfully reflect the actual contribution of input variables to the decision-making process. The faithfulness issue undermines the reliability and practical utility of attribution explanations. We argue that these concerns stem from three core challenges. First, difficulties arise in comparing attribution methods due to their unstructured heterogeneity, differences in heuristics, formulations, and implementations that lack a unified organization. Second, most methods lack solid theoretical underpinnings, with their rationales remaining absent, ambiguous, or unverified. Third, empirically evaluating faithfulness is challenging without ground truth. Recent theoretical advances provide a promising way to tackle these challenges, attracting increasing attention. We summarize these developments, with emphasis on three key directions: (i) Theoretical unification, which uncovers commonalities and differences among methods, enabling systematic comparisons; (ii) Theoretical rationale, clarifying the foundations of existing methods; (iii) Theoretical evaluation, rigorously proving whether methods satisfy faithfulness principles. Beyond a comprehensive review, we provide insights into how these studies help deepen theoretical understanding, inform method selection, and inspire new attribution methods. We conclude with a discussion of promising open problems for further work.
- Abstract(参考訳): 属性説明はディープニューラルネットワーク(DNN)を説明する典型的なアプローチであり、各入力変数の重要度やコントリビューションスコアを最終出力に推定する。
近年、DNNを説明するために多くの属性法が開発されている。
しかし、永続的な懸念は未解決のままであり、すなわち、入力変数の実際の意思決定プロセスへの貢献を忠実に反映する帰属的方法である。
忠実性問題は、帰属説明の信頼性と実用性を損なう。
これらの懸念は3つの主要な課題に起因していると我々は主張する。
まず、非構造的不均一性、ヒューリスティックスの違い、定式化、統一された組織を持たない実装による帰属法の比較が困難である。
第二に、ほとんどの手法はしっかりとした理論的な基盤を欠いているが、その理論的根拠は残っていない、曖昧である、あるいは証明されていない。
第三に、誠実さを実証的に評価することは、根拠のない挑戦である。
最近の理論的進歩は、これらの課題に取り組むための有望な方法を提供し、注目を集めている。
これらの展開を要約し、3つの主要な方向性を強調します。
一 方法の共通点及び相違を明らかにし、系統的な比較を可能にする理論的統一
(二 既存の方法の基礎を明確にする理論的根拠
三 理論的評価、方法が忠実性原則を満たすか否かを厳格に証明すること。
総合的なレビューの他に、これらの研究が理論的理解を深め、方法の選択を通知し、新しい帰属法を刺激する上でどのように役立つかについての洞察を提供する。
今後の作業のために、将来有望なオープンな問題を議論して締めくくります。
関連論文リスト
- Why Reasoning Matters? A Survey of Advancements in Multimodal Reasoning (v1) [66.51642638034822]
推論は人間の知性の中心であり、多様なタスクにまたがる構造化された問題解決を可能にする。
大規模言語モデル(LLM)の最近の進歩は、算術、常識、記号領域における推論能力を大幅に向上させてきた。
本稿では,テキストおよびマルチモーダルLLMにおける推論手法の簡潔かつ洞察に富んだ概要について述べる。
論文 参考訳(メタデータ) (2025-04-04T04:04:56Z) - Toward Understanding the Disagreement Problem in Neural Network Feature Attribution [0.8057006406834466]
ニューラルネットワークは 複雑なパターンと関係を 生のデータから識別する
これらのブラックボックスモデルの内部動作を理解することは、依然として難しいが、高い意思決定には不可欠である。
我々の研究は、説明の基本的な、分布的な振る舞いを調査することによって、この混乱に対処する。
論文 参考訳(メタデータ) (2024-04-17T12:45:59Z) - Does Faithfulness Conflict with Plausibility? An Empirical Study in Explainable AI across NLP Tasks [9.979726030996051]
私たちは、Shapleyの価値とLIMEがより忠実で妥当性が高いことを示す。
この結果から,一方の次元を一方の次元に最適化するのではなく,2つの目的を持つ説明可能性アルゴリズムを最適化する可能性が示唆された。
論文 参考訳(メタデータ) (2024-03-29T20:28:42Z) - Reasoning Abilities of Large Language Models: In-Depth Analysis on the Abstraction and Reasoning Corpus [4.569421189811511]
大規模言語モデル(LLM)の推論と文脈理解能力を評価する新しい手法を提案する。
思考仮説言語(LoTH:Logical Coherence, compositionality, Productivity)の3つの重要なコンポーネントに注目します。
実験の結果,LSMは推論能力を示す一方で,これらの3つの側面において,人間レベルの推論に遅れが生じることが判明した。
論文 参考訳(メタデータ) (2024-03-18T13:50:50Z) - Networked Communication for Decentralised Agents in Mean-Field Games [59.01527054553122]
平均フィールドゲームフレームワークにネットワーク通信を導入する。
当社のアーキテクチャは、中央集権型と独立した学習ケースの双方で保証されていることを証明しています。
ネットワーク化されたアプローチは、障害の更新や人口規模の変化に対する堅牢性という点において、両方の選択肢に対して大きなメリットがあることが示されています。
論文 参考訳(メタデータ) (2023-06-05T10:45:39Z) - A Survey on Uncertainty Reasoning and Quantification for Decision
Making: Belief Theory Meets Deep Learning [19.107178585554344]
不確実性に関する深い理解は、不確実性の下で効果的な決定を行うための第一歩です。
深層/機械学習は高次元データ処理に関わる複雑な問題を解決するために大いに活用されてきた。
しかし,ML/DLでは,様々な不確実性の推論と定量化がほとんど行われていない。
論文 参考訳(メタデータ) (2022-06-12T06:28:13Z) - On the Minimal Adversarial Perturbation for Deep Neural Networks with
Provable Estimation Error [65.51757376525798]
敵の摂動の存在は、証明可能な堅牢性に関する興味深い研究ラインを開いた。
検証可能な結果は、コミットしたエラーを見積り、バウンドするものではない。
本稿では,最小対向摂動を求めるための2つの軽量戦略を提案する。
その結果, 提案手法は, 分類に近い試料の理論的距離とロバスト性を近似し, 敵攻撃に対する確実な保証が得られた。
論文 参考訳(メタデータ) (2022-01-04T16:40:03Z) - Adversarial Robustness with Semi-Infinite Constrained Learning [177.42714838799924]
入力に対する深い学習は、安全クリティカルなドメインでの使用に関して深刻な疑問を提起している。
本稿では,この問題を緩和するために,Langevin Monte Carlo のハイブリッドトレーニング手法を提案する。
当社のアプローチは、最先端のパフォーマンスと堅牢性の間のトレードオフを軽減することができることを示す。
論文 参考訳(メタデータ) (2021-10-29T13:30:42Z) - On the Faithfulness Measurements for Model Interpretations [100.2730234575114]
ポストホックな解釈は、自然言語処理(NLP)モデルがどのように予測を行うかを明らかにすることを目的とする。
これらの問題に取り組むために,我々は,削除基準,解釈の感度,解釈の安定性という3つの基準から始める。
これらの忠実性概念のデシデラタムに動機づけられ、敵対的領域からのテクニックを採用する新しい解釈方法のクラスを導入する。
論文 参考訳(メタデータ) (2021-04-18T09:19:44Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。