論文の概要: Robustness of Visual Explanations to Common Data Augmentation
- arxiv url: http://arxiv.org/abs/2304.08984v1
- Date: Tue, 18 Apr 2023 13:31:52 GMT
- ステータス: 処理完了
- システム内更新日: 2023-04-19 14:41:48.933681
- Title: Robustness of Visual Explanations to Common Data Augmentation
- Title(参考訳): 共通データ拡張に対する視覚的説明のロバスト性
- Authors: Lenka T\v{e}tkov\'a and Lars Kai Hansen
- Abstract要約: ポストホックな説明可能性法は潜在的な解決策であるが、信頼性は疑問視されている。
本研究は,自然発生型変換に対するポストホック視覚的説明の応答について検討する。
変形の種類によっては頑健性に顕著な違いが見られ、いくつかの説明可能性法は他の方法よりも安定している。
- 参考スコア(独自算出の注目度): 4.865747672937677
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: As the use of deep neural networks continues to grow, understanding their
behaviour has become more crucial than ever. Post-hoc explainability methods
are a potential solution, but their reliability is being called into question.
Our research investigates the response of post-hoc visual explanations to
naturally occurring transformations, often referred to as augmentations. We
anticipate explanations to be invariant under certain transformations, such as
changes to the colour map while responding in an equivariant manner to
transformations like translation, object scaling, and rotation. We have found
remarkable differences in robustness depending on the type of transformation,
with some explainability methods (such as LRP composites and Guided Backprop)
being more stable than others. We also explore the role of training with data
augmentation. We provide evidence that explanations are typically less robust
to augmentation than classification performance, regardless of whether data
augmentation is used in training or not.
- Abstract(参考訳): ディープニューラルネットワークの利用が成長を続けるにつれ、その動作を理解することがこれまで以上に重要になっている。
ポストホックな説明可能性手法は潜在的な解決策であるが、その信頼性に疑問が投げかけられている。
本研究は,自然発生する変換に対するポストホックな視覚説明の応答について検討する。
我々は、変換、オブジェクトのスケーリング、回転のような変換に同変的に応答しながら色マップの変更など、ある変換の下で不変な説明を期待する。
我々は変換のタイプによってロバスト性が著しく異なることを発見し、いくつかの説明可能性法(lrpコンポジットやガイドバックプロップなど)は他の方法よりも安定している。
データ拡張によるトレーニングの役割についても検討する。
我々は,データ拡張がトレーニングに使用されるかどうかに関わらず,説明が分類性能よりも強化に対して堅牢でないことを示す。
関連論文リスト
- Strengthening Structural Inductive Biases by Pre-training to Perform Syntactic Transformations [75.14793516745374]
中間学習によりトランスフォーマーの構造的帰納バイアスを強化することを提案する。
実験の結果,チャンキングなどの構文的タスクのわずかな学習に有効であることが確認された。
分析の結果,中間的事前学習は,どのトークンにシナティクス変換を適用する必要があるかを追尾する注意を喚起することが明らかとなった。
論文 参考訳(メタデータ) (2024-07-05T14:29:44Z) - Understanding the Role of Invariance in Transfer Learning [9.220104991339104]
トランスファーラーニングは、異なるタスク間で知識を共有するための強力なテクニックである。
近年の研究では、逆入力摂動のような特定の不変性を持つモデルの表現が、下流タスクにおいてより高い性能を達成することが判明している。
論文 参考訳(メタデータ) (2024-07-05T07:53:52Z) - Sparse Explanations of Neural Networks Using Pruned Layer-Wise Relevance Propagation [1.593690982728631]
本稿では,レイヤワイド・レバレンス・プロパゲーションに広く用いられている説明手法の修正について述べる。
提案手法は,各レイヤの関連伝搬を解析することにより,空間性を直接的に適用する。
この修正によってノイズの低減と,ベースラインと比較して重要な特徴の集中がもたらされることが示される。
論文 参考訳(メタデータ) (2024-04-22T15:16:59Z) - Data Augmentation vs. Equivariant Networks: A Theory of Generalization
on Dynamics Forecasting [24.363954435050264]
力学系における対称性の爆発は、ディープラーニングの一般化を改善する強力な方法である。
データ拡張と同変ネットワークは、学習に対称性を注入する2つの主要なアプローチである。
データ拡張と同変ネットワークの一般化境界を導出し、統一されたフレームワークにおける学習に対するそれらの効果を特徴づける。
論文 参考訳(メタデータ) (2022-06-19T17:00:12Z) - XAI for Transformers: Better Explanations through Conservative
Propagation [60.67748036747221]
変換器の勾配は局所的にのみ関数を反映しており、入力特徴の予測への寄与を確実に識別できないことを示す。
我々の提案は、よく確立されたLPP法のトランスフォーマーへの適切な拡張と見なすことができる。
論文 参考訳(メタデータ) (2022-02-15T10:47:11Z) - Why Do Self-Supervised Models Transfer? Investigating the Impact of
Invariance on Downstream Tasks [79.13089902898848]
自己教師付き学習は、非競合画像上での表現学習の強力なパラダイムである。
コンピュータビジョンにおける異なるタスクは、異なる(不変の)分散を符号化する機能を必要とすることを示す。
論文 参考訳(メタデータ) (2021-11-22T18:16:35Z) - CADDA: Class-wise Automatic Differentiable Data Augmentation for EEG
Signals [92.60744099084157]
本研究では、勾配に基づく学習に適した微分可能データ拡張を提案する。
本研究は,臨床関連睡眠ステージ分類課題におけるアプローチの意義を示す。
論文 参考訳(メタデータ) (2021-06-25T15:28:48Z) - Grounding inductive biases in natural images:invariance stems from
variations in data [20.432568247732206]
本研究では,実際のデータセットであるImageNetの変動要因について検討する。
標準的な拡張は、翻訳とスケールの正確な組み合わせに依存していることを示す。
ImageNetの変動の主な要因は外見に大きく関係していることがわかりました。
論文 参考訳(メタデータ) (2021-06-09T14:58:57Z) - Learning Invariances in Neural Networks [51.20867785006147]
ネットワークパラメータや拡張パラメータに関して,拡張性よりも分布をパラメータ化し,トレーニング損失を同時に最適化する方法を示す。
画像分類,回帰,セグメンテーション,分子特性予測における不均一性の正確なセットと範囲を,拡張の広い空間から復元することができる。
論文 参考訳(メタデータ) (2020-10-22T17:18:48Z) - Category-Learning with Context-Augmented Autoencoder [63.05016513788047]
実世界のデータの解釈可能な非冗長表現を見つけることは、機械学習の鍵となる問題の一つである。
本稿では,オートエンコーダのトレーニングにデータ拡張を利用する新しい手法を提案する。
このような方法で変分オートエンコーダを訓練し、補助ネットワークによって変換結果を予測できるようにする。
論文 参考訳(メタデータ) (2020-10-10T14:04:44Z) - Robustness to Transformations Across Categories: Is Robustness To
Transformations Driven by Invariant Neural Representations? [1.7251667223970861]
ディープ畳み込みニューラルネットワーク(DCNN)は、変換中のオブジェクトを認識するという、印象的な堅牢性を示している。
そのような堅牢性を説明する仮説は、DCNNが画像が変換されたときに変化しない不変な神経表現を発達させるというものである。
本稿では, 変形に対する堅牢性を高めることを利用して, 不変なニューラル表現が出現する条件について検討する。
論文 参考訳(メタデータ) (2020-06-30T21:18:08Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。