論文の概要: Discovering and Explaining the Non-Causality of Deep Learning in SAR ATR
- arxiv url: http://arxiv.org/abs/2304.00668v1
- Date: Mon, 3 Apr 2023 00:45:11 GMT
- ステータス: 処理完了
- システム内更新日: 2023-04-04 16:53:01.651481
- Title: Discovering and Explaining the Non-Causality of Deep Learning in SAR ATR
- Title(参考訳): SAR ATRにおけるディープラーニングの非因性発見と説明
- Authors: Weijie Li, Wei Yang, Li Liu, Wenpeng Zhang, Yongxiang Liu
- Abstract要約: ベンチマークデータセットは、単一のデータ収集条件によるデータ選択バイアスに悩まされていることを示す。
このデータバイアスは、深層学習モデルを強化し、非因果的背景クラッタを過度に適合させる。
クラッタのオーバーフィットを低減するために,ランダムなSCR再重み付け手法を提案する。
- 参考スコア(独自算出の注目度): 20.662652637190515
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Synthetic aperture radar automatic target recognition (SAR ATR) is one of the
critical technologies for SAR image interpretation, which has an important
application prospect in military and civilian fields. Deep learning has been
widely used in this area and achieved an excellent recognition rate on the
benchmark dataset in recent years. However, the benchmark dataset suffers from
data selection bias due to a single data collection condition. This data bias
enhances deep learning models to overfit non-causal background clutter.
Moreover, existing methods qualitatively analyze the model causality and do not
deeply analyze this data bias. In this paper, we explicitly show that the data
selection bias leads to the non-causality of the model and spurious correlation
of clutter. First, we quantify the contribution of the target, clutter, and
shadow regions during the training process through the Shapley value. The
clutter contribution has a large proportion during the training process.
Second, the causes of the non-causality of deep learning in SAR ATR include
data selection bias and model texture bias. Data selection bias results in
class-related clutter and false feature representation. Furthermore, the
spurious correlation of clutter arises from the similar signal-to-clutter
ratios (SCR) between the training and test sets. Finally, we propose a random
SCR re-weighting method to reduce the overfitting for clutter. However, the
model texture bias increases with model complexity after removing data bias.
The experimental results of different models under the standard operating
condition of the benchmark MSTAR dataset prove the above conclusions.
- Abstract(参考訳): 合成開口レーダ自動目標認識(SAR ATR)は、SAR画像解釈において重要な技術の一つであり、軍事・民間分野で重要な応用分野である。
この分野ではディープラーニングが広く使われており、近年ではベンチマークデータセット上で優れた認識率を達成している。
しかし、ベンチマークデータセットは単一のデータ収集条件のため、データ選択バイアスに悩まされる。
このデータバイアスは、深層学習モデルを強化し、非因果的背景クラッタを過度に適合させる。
また,既存の手法ではモデル因果関係を定性的に分析し,このデータバイアスを深く分析していない。
本稿では,データ選択バイアスがモデルの非因果性やclutterのスプリアス相関につながることを示す。
まず,Shapley値を用いて,学習過程における目標領域,乱れ領域,影領域の寄与を定量化する。
乱雑な貢献は、トレーニングプロセス中に大きな割合を占める。
第2に、SAR ATRにおけるディープラーニングの非因果性の原因は、データ選択バイアスとモデルテクスチャバイアスである。
データ選択バイアスはクラス関連クラッタと偽の特徴表現をもたらす。
さらに,トレーニングセットとテストセットの類似した信号対クラッタ比(scr)からクラッタのスプリアス相関が生じる。
最後に,クラッタのオーバーフィットを低減するためのランダムscr再重み付け手法を提案する。
しかし、モデルのテクスチャバイアスは、データバイアスを取り除いた後にモデルの複雑さとともに増加する。
ベンチマークMSTARデータセットの標準動作条件下での異なるモデルの実験結果から,上記の結論が得られた。
関連論文リスト
- Granularity Matters in Long-Tail Learning [62.30734737735273]
より粒度の細かいデータセットは、データの不均衡の影響を受けにくい傾向があります。
既存のクラスと視覚的に類似したオープンセット補助クラスを導入し、頭と尾の両方の表現学習を強化することを目的とした。
補助授業の圧倒的な存在がトレーニングを混乱させるのを防ぐために,近隣のサイレンシング障害を導入する。
論文 参考訳(メタデータ) (2024-10-21T13:06:21Z) - Downstream-Pretext Domain Knowledge Traceback for Active Learning [138.02530777915362]
本稿では、下流知識と事前学習指導のデータ相互作用をトレースするダウンストリーム・プレテキスト・ドメイン知識トレース(DOKT)手法を提案する。
DOKTは、トレースバックの多様性指標とドメインベースの不確実性推定器から構成される。
10のデータセットで行った実験は、我々のモデルが他の最先端の手法よりも優れていることを示している。
論文 参考訳(メタデータ) (2024-07-20T01:34:13Z) - Class Imbalance in Object Detection: An Experimental Diagnosis and Study
of Mitigation Strategies [0.5439020425818999]
本研究は, YOLOv5単段検出器を用いて, 前地上クラス不均衡問題に対処するベンチマークフレームワークを提案する。
我々は,サンプリング,損失重み付け,データ強化という3つの確立した手法を精査した。
比較分析の結果,2段階検出法では有効であるが,YOLOv5の性能向上には有効ではないことが明らかとなった。
論文 参考訳(メタデータ) (2024-03-11T19:06:04Z) - Learning with Noisy Foundation Models [95.50968225050012]
本論文は、事前学習データセットにおけるノイズの性質を包括的に理解し分析する最初の研究である。
雑音の悪影響を緩和し、一般化を改善するため、特徴空間に適応するチューニング法(NMTune)を提案する。
論文 参考訳(メタデータ) (2024-03-11T16:22:41Z) - Comparing Importance Sampling Based Methods for Mitigating the Effect of
Class Imbalance [0.0]
我々は,損失再加重,アンダーサンプリング,オーバーサンプリングという,重要なサンプリングから導かれる3つのテクニックを比較した。
アンダーサンプリングにおける損失の重み付けは、アンダー表現されたクラスの性能に悪影響を及ぼすことがわかった。
我々の発見は、プラネタリーデータセットに何らかの冗長性が存在することも示唆している。
論文 参考訳(メタデータ) (2024-02-28T22:52:27Z) - EAT: Towards Long-Tailed Out-of-Distribution Detection [55.380390767978554]
本稿では,長い尾を持つOOD検出の課題に対処する。
主な困難は、尾クラスに属するサンプルとOODデータを区別することである。
本稿では,(1)複数の禁制クラスを導入して分布内クラス空間を拡大すること,(2)コンテキストリッチなOODデータに画像をオーバーレイすることでコンテキスト限定のテールクラスを拡大すること,の2つの簡単な考え方を提案する。
論文 参考訳(メタデータ) (2023-12-14T13:47:13Z) - On Feature Learning in the Presence of Spurious Correlations [45.86963293019703]
得られた特徴表現の質は,提案手法以外の設計決定に大きく影響されていることを示す。
我々は,人気のウォーターバード,セレブの髪の色予測,WILDS-FMOW問題に関する文献で報告された最良の結果を大幅に改善した。
論文 参考訳(メタデータ) (2022-10-20T16:10:28Z) - An empirical study of the effect of background data size on the
stability of SHapley Additive exPlanations (SHAP) for deep learning models [14.65535880059975]
ランダムサンプリングから得られた異なる背景データセットを使用すると,SHAP値と変数ランキングが変動することを示す。
以上の結果から,背景データがSHAP結果に与える影響を考慮し,背景サンプルサイズが大きくなるにつれてSHAP安定性が向上することが示唆された。
論文 参考訳(メタデータ) (2022-04-24T20:15:34Z) - FairIF: Boosting Fairness in Deep Learning via Influence Functions with
Validation Set Sensitive Attributes [51.02407217197623]
本稿では,FAIRIFという2段階の学習アルゴリズムを提案する。
サンプル重みが計算される再重み付きデータセットの損失を最小限に抑える。
FAIRIFは、様々な種類のバイアスに対して、フェアネスとユーティリティのトレードオフを良くしたモデルが得られることを示す。
論文 参考訳(メタデータ) (2022-01-15T05:14:48Z) - General Greedy De-bias Learning [163.65789778416172]
本稿では,関数空間における勾配降下のような偏りのあるモデルとベースモデルを優雅に訓練する一般グリーディ・デバイアス学習フレームワーク(GGD)を提案する。
GGDは、事前知識を持つタスク固有バイアスモデルと、事前知識を持たない自己アンサンブルバイアスモデルの両方の設定の下で、より堅牢なベースモデルを学ぶことができる。
論文 参考訳(メタデータ) (2021-12-20T14:47:32Z) - Deep Stable Learning for Out-Of-Distribution Generalization [27.437046504902938]
深層ニューラルネットワークに基づくアプローチは、同様の分布を持つデータとトレーニングデータをテストする際に顕著なパフォーマンスを達成した。
トレーニングとテストデータ間の分散シフトの影響を排除することは、パフォーマンス向上の深層モデルの構築に不可欠です。
トレーニングサンプルの学習重みによる特徴間の依存関係を除去し,この問題に対処することを提案する。
論文 参考訳(メタデータ) (2021-04-16T03:54:21Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。