論文の概要: One Wave to Explain Them All: A Unifying Perspective on Post-hoc Explainability
- arxiv url: http://arxiv.org/abs/2410.01482v1
- Date: Wed, 2 Oct 2024 12:34:04 GMT
- ステータス: 処理完了
- システム内更新日: 2024-11-04 17:34:40.164373
- Title: One Wave to Explain Them All: A Unifying Perspective on Post-hoc Explainability
- Title(参考訳): すべてを説明するひとつの波:ポストホックな説明可能性に関する統一的な視点
- Authors: Gabriel Kasmi, Amandine Brunetto, Thomas Fel, Jayneel Parekh,
- Abstract要約: 本稿では,ウェーブレット領域を寄与のための堅牢な数学的基礎として活用することを提案する。
我々のアプローチは、既存の勾配に基づく特徴属性をウェーブレット領域に拡張する。
私たちのメソッドが、入力の重要な部分である場所だけでなく、何についてもどのように説明しているかを示します。
- 参考スコア(独自算出の注目度): 6.151633954305939
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Despite the growing use of deep neural networks in safety-critical decision-making, their inherent black-box nature hinders transparency and interpretability. Explainable AI (XAI) methods have thus emerged to understand a model's internal workings, and notably attribution methods also called saliency maps. Conventional attribution methods typically identify the locations -- the where -- of significant regions within an input. However, because they overlook the inherent structure of the input data, these methods often fail to interpret what these regions represent in terms of structural components (e.g., textures in images or transients in sounds). Furthermore, existing methods are usually tailored to a single data modality, limiting their generalizability. In this paper, we propose leveraging the wavelet domain as a robust mathematical foundation for attribution. Our approach, the Wavelet Attribution Method (WAM) extends the existing gradient-based feature attributions into the wavelet domain, providing a unified framework for explaining classifiers across images, audio, and 3D shapes. Empirical evaluations demonstrate that WAM matches or surpasses state-of-the-art methods across faithfulness metrics and models in image, audio, and 3D explainability. Finally, we show how our method explains not only the where -- the important parts of the input -- but also the what -- the relevant patterns in terms of structural components.
- Abstract(参考訳): 安全クリティカルな意思決定におけるディープニューラルネットワークの利用の増加にもかかわらず、その固有のブラックボックスの性質は透明性と解釈可能性を妨げる。
説明可能なAI(XAI)手法は、モデルの内部動作、特にサリエンシマップ(英語版)と呼ばれる帰属的手法を理解するために登場した。
従来の属性メソッドは通常、入力内の重要な領域の場所(場所)を識別する。
しかし、これらの手法は入力データ固有の構造を見落としているため、これらの領域がどのような構造成分(例えば、画像のテクスチャや音のトランジェント)で表すかを理解するのに失敗することが多い。
さらに、既存のメソッドは通常、単一のデータモダリティに合わせて調整され、一般化性を制限する。
本稿では,ウェーブレット領域を属性の頑健な数学的基礎として活用することを提案する。
我々のアプローチであるWavelet Attribution Method (WAM)は、既存の勾配に基づく特徴属性をウェーブレット領域に拡張し、画像、オーディオ、および3次元形状の分類器を記述するための統一的なフレームワークを提供する。
実験的な評価は、WAMが画像、オーディオ、および3D説明可能性において、忠実度メトリクスとモデルにまたがる最先端の手法と一致するか、あるいは超えていることを示している。
最後に、私たちのメソッドが、入力の重要な部分である場所だけでなく、関連するパターンを構造的コンポーネントの観点からどのように説明しているかを示します。
関連論文リスト
- Diffusion Features to Bridge Domain Gap for Semantic Segmentation [2.8616666231199424]
本稿では, 拡散モデルの特徴を効率的に活用するために, サンプリングおよび融合技術を活用するアプローチについて検討する。
テキスト・画像生成能力の強みを生かして、暗黙的に後部知識を学習する新しいトレーニングフレームワークを導入する。
論文 参考訳(メタデータ) (2024-06-02T15:33:46Z) - EmerDiff: Emerging Pixel-level Semantic Knowledge in Diffusion Models [52.3015009878545]
我々は、追加の訓練をすることなく、きめ細かなセグメンテーションマップを生成できる画像セグメンタを開発した。
低次元特徴写像の空間的位置と画像画素間の意味的対応を同定する。
大規模な実験では、生成したセグメンテーションマップがよく説明され、画像の細部を捉えることが示されている。
論文 参考訳(メタデータ) (2024-01-22T07:34:06Z) - DiffCloth: Diffusion Based Garment Synthesis and Manipulation via
Structural Cross-modal Semantic Alignment [124.57488600605822]
クロスモーダルな衣料品の合成と操作は、ファッションデザイナーが衣料品を作る方法に大きな恩恵をもたらすだろう。
クロスモーダルな衣服合成と操作のための拡散型パイプラインDiffClothを紹介する。
CM-Fashionベンチマークの実験により、DiffClothはどちらも最先端の衣服合成結果を得ることが示された。
論文 参考訳(メタデータ) (2023-08-22T05:43:33Z) - DARE: Towards Robust Text Explanations in Biomedical and Healthcare
Applications [54.93807822347193]
帰属ロバスト性評価手法を与えられたドメインに適応させ、ドメイン固有の妥当性を考慮する方法を示す。
次に,DAREが特徴とする脆さを軽減するために,対人訓練とFAR訓練の2つの方法を提案する。
最後に,確立した3つのバイオメディカル・ベンチマークを用いて実験を行い,本手法を実証的に検証した。
論文 参考訳(メタデータ) (2023-07-05T08:11:40Z) - Assessment of the Reliablity of a Model's Decision by Generalizing
Attribution to the Wavelet Domain [0.8192907805418583]
本稿では,ウェーブレット変換を用いた画素領域から空間スケール領域への属性の一般化であるWavelet sCale Attribution Method (WCAM)を紹介する。
私たちのコードはここでアクセスできます。
論文 参考訳(メタデータ) (2023-05-24T10:13:32Z) - Visualization of Supervised and Self-Supervised Neural Networks via
Attribution Guided Factorization [87.96102461221415]
クラスごとの説明性を提供するアルゴリズムを開発した。
実験の広範なバッテリーでは、クラス固有の可視化のための手法の能力を実証する。
論文 参考訳(メタデータ) (2020-12-03T18:48:39Z) - Explaining Convolutional Neural Networks through Attribution-Based Input
Sampling and Block-Wise Feature Aggregation [22.688772441351308]
クラスアクティベーションマッピングとランダムな入力サンプリングに基づく手法が広く普及している。
しかし、帰属法は、その説明力を制限した解像度とぼやけた説明地図を提供する。
本研究では、帰属型入力サンプリング技術に基づいて、モデルの複数の層から可視化マップを収集する。
また,CNNモデル全体に適用可能な層選択戦略を提案する。
論文 参考訳(メタデータ) (2020-10-01T20:27:30Z) - Closed-Form Factorization of Latent Semantics in GANs [65.42778970898534]
画像合成のために訓練されたGAN(Generative Adversarial Networks)の潜在空間に、解釈可能な次元の豊富なセットが出現することが示されている。
本研究では,GANが学習した内部表現について検討し,その基礎となる変動要因を教師なしで明らかにする。
本稿では,事前学習した重みを直接分解することで,潜在意味発見のためのクローズドフォーム因数分解アルゴリズムを提案する。
論文 参考訳(メタデータ) (2020-07-13T18:05:36Z) - Explainable Deep Classification Models for Domain Generalization [94.43131722655617]
説明は、深い分類網が決定を下す視覚的証拠の領域として定義される。
トレーニング戦略は周期的な正当性に基づくフィードバックを強制し、モデルが地中真実に直接対応する画像領域に焦点を合わせることを奨励する。
論文 参考訳(メタデータ) (2020-03-13T22:22:15Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。