論文の概要: Discovering and Explaining the Non-Causality of Deep Learning in SAR ATR
- arxiv url: http://arxiv.org/abs/2304.00668v4
- Date: Wed, 12 Apr 2023 04:42:21 GMT
- ステータス: 処理完了
- システム内更新日: 2023-04-13 11:01:46.919877
- Title: Discovering and Explaining the Non-Causality of Deep Learning in SAR ATR
- Title(参考訳): SAR ATRにおけるディープラーニングの非因性発見と説明
- Authors: Weijie Li, Wei Yang, Li Liu, Wenpeng Zhang, Yongxiang Liu
- Abstract要約: ディープラーニングは、SAR ATRで広く使われ、MSTARデータセット上で優れたパフォーマンスを実現している。
本稿では,Shapley値に基づいて,異なる領域の目標認識に対する貢献度を定量化する。
データバイアスとモデルバイアスが非因果性にどのように貢献するかを説明する。
- 参考スコア(独自算出の注目度): 20.662652637190515
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In recent years, deep learning has been widely used in SAR ATR and achieved
excellent performance on the MSTAR dataset. However, due to constrained imaging
conditions, MSTAR has data biases such as background correlation, i.e.,
background clutter properties have a spurious correlation with target classes.
Deep learning can overfit clutter to reduce training errors. Therefore, the
degree of overfitting for clutter reflects the non-causality of deep learning
in SAR ATR. Existing methods only qualitatively analyze this phenomenon. In
this paper, we quantify the contributions of different regions to target
recognition based on the Shapley value. The Shapley value of clutter measures
the degree of overfitting. Moreover, we explain how data bias and model bias
contribute to non-causality. Concisely, data bias leads to comparable
signal-to-clutter ratios and clutter textures in training and test sets. And
various model structures have different degrees of overfitting for these
biases. The experimental results of various models under standard operating
conditions on the MSTAR dataset support our conclusions. Our code is available
at https://github.com/waterdisappear/Data-Bias-in-MSTAR.
- Abstract(参考訳): 近年、深層学習はSAR ATRで広く使われており、MSTARデータセット上で優れた性能を発揮している。
しかし、撮像条件が制約されているため、MSTARは背景相関などのデータバイアス、すなわち背景クラッタ特性は対象クラスと急激な相関を持つ。
ディープラーニングは、トレーニングエラーを減らすためにクラッタに過度に適合する。
したがって, SAR ATR における深層学習の非因果関係を反映している。
既存の手法はこの現象を質的にのみ分析する。
本稿では,Shapley値に基づいて,異なる領域の目標認識に対する貢献度を定量化する。
クラッタのShapley値は、オーバーフィッティングの度合いを測る。
さらに,データバイアスとモデルバイアスが非因果性にどのように寄与するかを説明する。
簡潔に言うと、データバイアスはトレーニングとテストセットで同等の信号対クラッタ比とクラッタテクスチャをもたらす。
様々なモデル構造は、これらのバイアスに対して異なるオーバーフィット度を持っています。
MSTARデータセットの標準動作条件下での各種モデル実験の結果は,その結論を支持する。
私たちのコードはhttps://github.com/waterdisappear/Data-Bias-in-MSTARで利用可能です。
関連論文リスト
- Granularity Matters in Long-Tail Learning [62.30734737735273]
より粒度の細かいデータセットは、データの不均衡の影響を受けにくい傾向があります。
既存のクラスと視覚的に類似したオープンセット補助クラスを導入し、頭と尾の両方の表現学習を強化することを目的とした。
補助授業の圧倒的な存在がトレーニングを混乱させるのを防ぐために,近隣のサイレンシング障害を導入する。
論文 参考訳(メタデータ) (2024-10-21T13:06:21Z) - Downstream-Pretext Domain Knowledge Traceback for Active Learning [138.02530777915362]
本稿では、下流知識と事前学習指導のデータ相互作用をトレースするダウンストリーム・プレテキスト・ドメイン知識トレース(DOKT)手法を提案する。
DOKTは、トレースバックの多様性指標とドメインベースの不確実性推定器から構成される。
10のデータセットで行った実験は、我々のモデルが他の最先端の手法よりも優れていることを示している。
論文 参考訳(メタデータ) (2024-07-20T01:34:13Z) - Class Imbalance in Object Detection: An Experimental Diagnosis and Study
of Mitigation Strategies [0.5439020425818999]
本研究は, YOLOv5単段検出器を用いて, 前地上クラス不均衡問題に対処するベンチマークフレームワークを提案する。
我々は,サンプリング,損失重み付け,データ強化という3つの確立した手法を精査した。
比較分析の結果,2段階検出法では有効であるが,YOLOv5の性能向上には有効ではないことが明らかとなった。
論文 参考訳(メタデータ) (2024-03-11T19:06:04Z) - Learning with Noisy Foundation Models [95.50968225050012]
本論文は、事前学習データセットにおけるノイズの性質を包括的に理解し分析する最初の研究である。
雑音の悪影響を緩和し、一般化を改善するため、特徴空間に適応するチューニング法(NMTune)を提案する。
論文 参考訳(メタデータ) (2024-03-11T16:22:41Z) - Comparing Importance Sampling Based Methods for Mitigating the Effect of
Class Imbalance [0.0]
我々は,損失再加重,アンダーサンプリング,オーバーサンプリングという,重要なサンプリングから導かれる3つのテクニックを比較した。
アンダーサンプリングにおける損失の重み付けは、アンダー表現されたクラスの性能に悪影響を及ぼすことがわかった。
我々の発見は、プラネタリーデータセットに何らかの冗長性が存在することも示唆している。
論文 参考訳(メタデータ) (2024-02-28T22:52:27Z) - EAT: Towards Long-Tailed Out-of-Distribution Detection [55.380390767978554]
本稿では,長い尾を持つOOD検出の課題に対処する。
主な困難は、尾クラスに属するサンプルとOODデータを区別することである。
本稿では,(1)複数の禁制クラスを導入して分布内クラス空間を拡大すること,(2)コンテキストリッチなOODデータに画像をオーバーレイすることでコンテキスト限定のテールクラスを拡大すること,の2つの簡単な考え方を提案する。
論文 参考訳(メタデータ) (2023-12-14T13:47:13Z) - On Feature Learning in the Presence of Spurious Correlations [45.86963293019703]
得られた特徴表現の質は,提案手法以外の設計決定に大きく影響されていることを示す。
我々は,人気のウォーターバード,セレブの髪の色予測,WILDS-FMOW問題に関する文献で報告された最良の結果を大幅に改善した。
論文 参考訳(メタデータ) (2022-10-20T16:10:28Z) - An empirical study of the effect of background data size on the
stability of SHapley Additive exPlanations (SHAP) for deep learning models [14.65535880059975]
ランダムサンプリングから得られた異なる背景データセットを使用すると,SHAP値と変数ランキングが変動することを示す。
以上の結果から,背景データがSHAP結果に与える影響を考慮し,背景サンプルサイズが大きくなるにつれてSHAP安定性が向上することが示唆された。
論文 参考訳(メタデータ) (2022-04-24T20:15:34Z) - FairIF: Boosting Fairness in Deep Learning via Influence Functions with
Validation Set Sensitive Attributes [51.02407217197623]
本稿では,FAIRIFという2段階の学習アルゴリズムを提案する。
サンプル重みが計算される再重み付きデータセットの損失を最小限に抑える。
FAIRIFは、様々な種類のバイアスに対して、フェアネスとユーティリティのトレードオフを良くしたモデルが得られることを示す。
論文 参考訳(メタデータ) (2022-01-15T05:14:48Z) - General Greedy De-bias Learning [163.65789778416172]
本稿では,関数空間における勾配降下のような偏りのあるモデルとベースモデルを優雅に訓練する一般グリーディ・デバイアス学習フレームワーク(GGD)を提案する。
GGDは、事前知識を持つタスク固有バイアスモデルと、事前知識を持たない自己アンサンブルバイアスモデルの両方の設定の下で、より堅牢なベースモデルを学ぶことができる。
論文 参考訳(メタデータ) (2021-12-20T14:47:32Z) - Deep Stable Learning for Out-Of-Distribution Generalization [27.437046504902938]
深層ニューラルネットワークに基づくアプローチは、同様の分布を持つデータとトレーニングデータをテストする際に顕著なパフォーマンスを達成した。
トレーニングとテストデータ間の分散シフトの影響を排除することは、パフォーマンス向上の深層モデルの構築に不可欠です。
トレーニングサンプルの学習重みによる特徴間の依存関係を除去し,この問題に対処することを提案する。
論文 参考訳(メタデータ) (2021-04-16T03:54:21Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。