論文の概要: One Wave To Explain Them All: A Unifying Perspective On Feature Attribution
- arxiv url: http://arxiv.org/abs/2410.01482v2
- Date: Thu, 05 Jun 2025 16:15:38 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-06-06 21:53:49.185628
- Title: One Wave To Explain Them All: A Unifying Perspective On Feature Attribution
- Title(参考訳): One Wave to Explain them: Anifying Perspective on Feature Attribution
- Authors: Gabriel Kasmi, Amandine Brunetto, Thomas Fel, Jayneel Parekh,
- Abstract要約: 特徴属性法は、モデルの決定に影響を及ぼす入力特徴を特定することにより、ディープニューラルネットワークの透明性を向上させることを目的としている。
ピクセルベースのヒートマップは、画像、オーディオ表現、ボリュームなどの高次元入力に特徴をもたらす標準となっている。
この研究は、ウェーブレット領域が情報的かつ有意義な属性を許容することを証明している。
- 参考スコア(独自算出の注目度): 6.151633954305939
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Feature attribution methods aim to improve the transparency of deep neural networks by identifying the input features that influence a model's decision. Pixel-based heatmaps have become the standard for attributing features to high-dimensional inputs, such as images, audio representations, and volumes. While intuitive and convenient, these pixel-based attributions fail to capture the underlying structure of the data. Moreover, the choice of domain for computing attributions has often been overlooked. This work demonstrates that the wavelet domain allows for informative and meaningful attributions. It handles any input dimension and offers a unified approach to feature attribution. Our method, the Wavelet Attribution Method (WAM), leverages the spatial and scale-localized properties of wavelet coefficients to provide explanations that capture both the where and what of a model's decision-making process. We show that WAM quantitatively matches or outperforms existing gradient-based methods across multiple modalities, including audio, images, and volumes. Additionally, we discuss how WAM bridges attribution with broader aspects of model robustness and transparency. Project page: https://gabrielkasmi.github.io/wam/
- Abstract(参考訳): 特徴属性法は、モデルの決定に影響を及ぼす入力特徴を特定することにより、ディープニューラルネットワークの透明性を向上させることを目的としている。
ピクセルベースのヒートマップは、画像、オーディオ表現、ボリュームなどの高次元入力に特徴をもたらす標準となっている。
直感的で便利だが、これらのピクセルベースの属性は、基礎となるデータ構造をキャプチャすることができない。
さらに、計算属性に対するドメインの選択は、しばしば見過ごされてきた。
この研究は、ウェーブレット領域が情報的かつ有意義な属性を許容することを証明している。
任意の入力次元を処理し、特徴属性に対する統一的なアプローチを提供する。
ウェーブレット帰属法(WAM)は,ウェーブレット係数の空間的およびスケール的局所化特性を利用して,モデル決定過程の場所と場所の両方をキャプチャする説明を提供する。
WAMは、音声、画像、ボリュームなど、複数のモードで、既存の勾配に基づく手法を定量的に比較または上回ることを示す。
さらに、WAMブリッジがモデル堅牢性と透明性の幅広い側面に寄与する方法について論じる。
プロジェクトページ:https://gabrielkasmi.github.io/wam/
関連論文リスト
- Diffusion Features to Bridge Domain Gap for Semantic Segmentation [2.8616666231199424]
本稿では, 拡散モデルの特徴を効率的に活用するために, サンプリングおよび融合技術を活用するアプローチについて検討する。
テキスト・画像生成能力の強みを生かして、暗黙的に後部知識を学習する新しいトレーニングフレームワークを導入する。
論文 参考訳(メタデータ) (2024-06-02T15:33:46Z) - EmerDiff: Emerging Pixel-level Semantic Knowledge in Diffusion Models [52.3015009878545]
我々は、追加の訓練をすることなく、きめ細かなセグメンテーションマップを生成できる画像セグメンタを開発した。
低次元特徴写像の空間的位置と画像画素間の意味的対応を同定する。
大規模な実験では、生成したセグメンテーションマップがよく説明され、画像の細部を捉えることが示されている。
論文 参考訳(メタデータ) (2024-01-22T07:34:06Z) - DiffCloth: Diffusion Based Garment Synthesis and Manipulation via
Structural Cross-modal Semantic Alignment [124.57488600605822]
クロスモーダルな衣料品の合成と操作は、ファッションデザイナーが衣料品を作る方法に大きな恩恵をもたらすだろう。
クロスモーダルな衣服合成と操作のための拡散型パイプラインDiffClothを紹介する。
CM-Fashionベンチマークの実験により、DiffClothはどちらも最先端の衣服合成結果を得ることが示された。
論文 参考訳(メタデータ) (2023-08-22T05:43:33Z) - DARE: Towards Robust Text Explanations in Biomedical and Healthcare
Applications [54.93807822347193]
帰属ロバスト性評価手法を与えられたドメインに適応させ、ドメイン固有の妥当性を考慮する方法を示す。
次に,DAREが特徴とする脆さを軽減するために,対人訓練とFAR訓練の2つの方法を提案する。
最後に,確立した3つのバイオメディカル・ベンチマークを用いて実験を行い,本手法を実証的に検証した。
論文 参考訳(メタデータ) (2023-07-05T08:11:40Z) - Assessment of the Reliablity of a Model's Decision by Generalizing
Attribution to the Wavelet Domain [0.8192907805418583]
本稿では,ウェーブレット変換を用いた画素領域から空間スケール領域への属性の一般化であるWavelet sCale Attribution Method (WCAM)を紹介する。
私たちのコードはここでアクセスできます。
論文 参考訳(メタデータ) (2023-05-24T10:13:32Z) - Visualization of Supervised and Self-Supervised Neural Networks via
Attribution Guided Factorization [87.96102461221415]
クラスごとの説明性を提供するアルゴリズムを開発した。
実験の広範なバッテリーでは、クラス固有の可視化のための手法の能力を実証する。
論文 参考訳(メタデータ) (2020-12-03T18:48:39Z) - Explaining Convolutional Neural Networks through Attribution-Based Input
Sampling and Block-Wise Feature Aggregation [22.688772441351308]
クラスアクティベーションマッピングとランダムな入力サンプリングに基づく手法が広く普及している。
しかし、帰属法は、その説明力を制限した解像度とぼやけた説明地図を提供する。
本研究では、帰属型入力サンプリング技術に基づいて、モデルの複数の層から可視化マップを収集する。
また,CNNモデル全体に適用可能な層選択戦略を提案する。
論文 参考訳(メタデータ) (2020-10-01T20:27:30Z) - Closed-Form Factorization of Latent Semantics in GANs [65.42778970898534]
画像合成のために訓練されたGAN(Generative Adversarial Networks)の潜在空間に、解釈可能な次元の豊富なセットが出現することが示されている。
本研究では,GANが学習した内部表現について検討し,その基礎となる変動要因を教師なしで明らかにする。
本稿では,事前学習した重みを直接分解することで,潜在意味発見のためのクローズドフォーム因数分解アルゴリズムを提案する。
論文 参考訳(メタデータ) (2020-07-13T18:05:36Z) - Explainable Deep Classification Models for Domain Generalization [94.43131722655617]
説明は、深い分類網が決定を下す視覚的証拠の領域として定義される。
トレーニング戦略は周期的な正当性に基づくフィードバックを強制し、モデルが地中真実に直接対応する画像領域に焦点を合わせることを奨励する。
論文 参考訳(メタデータ) (2020-03-13T22:22:15Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。