論文の概要: IncSAR: A Dual Fusion Incremental Learning Framework for SAR Target Recognition
- arxiv url: http://arxiv.org/abs/2410.05820v1
- Date: Tue, 8 Oct 2024 08:49:47 GMT
- ステータス: 処理完了
- システム内更新日: 2024-11-01 12:39:56.683226
- Title: IncSAR: A Dual Fusion Incremental Learning Framework for SAR Target Recognition
- Title(参考訳): IncSAR: SARターゲット認識のためのデュアルフュージョンインクリメンタルラーニングフレームワーク
- Authors: George Karantaidis, Athanasios Pantsios, Yiannis Kompatsiaris, Symeon Papadopoulos,
- Abstract要約: 破滅的な忘れ方として知られる新しいタスクを学ぶとき、モデルが古い知識を忘れる傾向は、未解決の課題である。
本稿では,SAR目標認識における破滅的忘れを緩和するために,IncSARと呼ばれる漸進的学習フレームワークを提案する。
IncSARはビジョントランスフォーマー(ViT)と、遅延融合戦略によって結合された個々のブランチにカスタム設計の畳み込みニューラルネットワーク(CNN)を備える。
- 参考スコア(独自算出の注目度): 7.9330990800767385
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Deep learning techniques have been successfully applied in Synthetic Aperture Radar (SAR) target recognition in static scenarios relying on predefined datasets. However, in real-world scenarios, models must incrementally learn new information without forgetting previously learned knowledge. Models' tendency to forget old knowledge when learning new tasks, known as catastrophic forgetting, remains an open challenge. In this paper, an incremental learning framework, called IncSAR, is proposed to mitigate catastrophic forgetting in SAR target recognition. IncSAR comprises a Vision Transformer (ViT) and a custom-designed Convolutional Neural Network (CNN) in individual branches combined through a late-fusion strategy. A denoising module, utilizing the properties of Robust Principal Component Analysis (RPCA), is introduced to alleviate the speckle noise present in SAR images. Moreover, a random projection layer is employed to enhance the linear separability of features, and a Linear Discriminant Analysis (LDA) approach is proposed to decorrelate the extracted class prototypes. Experimental results on the MSTAR and OpenSARShip benchmark datasets demonstrate that IncSAR outperforms state-of-the-art approaches, leading to an improvement from $98.05\%$ to $99.63\%$ in average accuracy and from $3.05\%$ to $0.33\%$ in performance dropping rate.
- Abstract(参考訳): ディープラーニング技術は、事前に定義されたデータセットに依存する静的シナリオにおけるSAR(Synthetic Aperture Radar)ターゲット認識に成功している。
しかし、現実のシナリオでは、モデルは学習済みの知識を忘れずに、段階的に新しい情報を学ぶ必要がある。
破滅的な忘れ方として知られる新しいタスクを学ぶとき、モデルが古い知識を忘れる傾向は、未解決の課題である。
本稿では,SAR目標認識における破滅的忘れを緩和するために,インクリメンタル学習フレームワークIncSARを提案する。
IncSARはビジョントランスフォーマー(ViT)と、遅延融合戦略によって結合された個々のブランチにカスタム設計の畳み込みニューラルネットワーク(CNN)を備える。
SAR画像におけるスペックルノイズを軽減するため,ロバスト主成分分析(RPCA)の特性を利用したデノナイジングモジュールが導入された。
さらに,特徴の線形分離性を高めるためにランダムなプロジェクション層を用い,抽出したクラスプロトタイプをデコレーションするために線形判別分析(LDA)手法を提案する。
MSTARとOpenSARShipベンチマークデータセットの実験結果によると、IncSARは最先端のアプローチよりも優れており、平均精度が98.05\%$から99.63\%$、パフォーマンス低下率が3.05\%から0.33\%$に改善されている。
関連論文リスト
- Reciprocal Point Learning Network with Large Electromagnetic Kernel for SAR Open-Set Recognition [6.226365654670747]
Open Set Recognition (OSR)は、未知のクラスを「未知」と表現しながら、既知のクラスを分類することを目的とする。
オープンセットSAR分類を強化するために,相互学習ネットワークを用いた散乱カーネルと呼ばれる手法を提案する。
大規模属性散乱中心モデルに基づく畳み込みカーネルの設計を提案する。
論文 参考訳(メタデータ) (2024-11-07T13:26:20Z) - ACTRESS: Active Retraining for Semi-supervised Visual Grounding [52.08834188447851]
前回の研究であるRefTeacherは、疑似自信と注意に基づく監督を提供するために教師学生の枠組みを採用することで、この課題に取り組むための最初の試みである。
このアプローチは、Transformerベースのパイプラインに従う現在の最先端のビジュアルグラウンドモデルと互換性がない。
本稿では, ACTRESS を略したセミスーパービジョン視覚グラウンドのためのアクティブ・リトレーニング手法を提案する。
論文 参考訳(メタデータ) (2024-07-03T16:33:31Z) - Heterogeneous Learning Rate Scheduling for Neural Architecture Search on Long-Tailed Datasets [0.0]
本稿では,DARTSのアーキテクチャパラメータに適した適応学習率スケジューリング手法を提案する。
提案手法は,学習エポックに基づくアーキテクチャパラメータの学習率を動的に調整し,よく訓練された表現の破壊を防止する。
論文 参考訳(メタデータ) (2024-06-11T07:32:25Z) - SARatrX: Towards Building A Foundation Model for SAR Target Recognition [22.770010893572973]
我々は、SARatrXと呼ばれるSAR ATRの基礎モデルを構築するための最初の試みを行っている。
SARatrXは、自己教師付き学習(SSL)を通じて一般化可能な表現を学び、汎用的なSARターゲット検出と分類タスクへのラベル効率のモデル適応の基礎を提供する。
具体的には、SARatrXは0.18Mの未ラベルのSARターゲットサンプルでトレーニングされており、同時代のベンチマークを組み合わせてキュレーションされ、これまでで最大の公開データセットとなっている。
論文 参考訳(メタデータ) (2024-05-15T14:17:44Z) - Benchmarking Deep Learning Classifiers for SAR Automatic Target
Recognition [7.858656052565242]
本稿では,複数のSARデータセットを用いたSAR ATRの先進的な深層学習モデルを総合的にベンチマークする。
推論スループットと解析性能の観点から,分類精度のランタイム性能に関する5つの分類器の評価と比較を行った。
SAR ATRの領域では、すべてのモデルルールが疑わしいのです。
論文 参考訳(メタデータ) (2023-12-12T02:20:39Z) - Small Object Detection via Coarse-to-fine Proposal Generation and
Imitation Learning [52.06176253457522]
本稿では,粗粒度パイプラインと特徴模倣学習に基づく小型物体検出に適した2段階フレームワークを提案する。
CFINetは、大規模な小さなオブジェクト検出ベンチマークであるSODA-DとSODA-Aで最先端の性能を達成する。
論文 参考訳(メタデータ) (2023-08-18T13:13:09Z) - Class Anchor Margin Loss for Content-Based Image Retrieval [97.81742911657497]
距離学習パラダイムに該当する新しいレペラ・トラクタ損失を提案するが、ペアを生成する必要がなく、直接L2メトリックに最適化する。
CBIRタスクにおいて,畳み込みアーキテクチャと変圧器アーキテクチャの両方を用いて,少数ショットおよびフルセットトレーニングの文脈で提案した目的を評価する。
論文 参考訳(メタデータ) (2023-06-01T12:53:10Z) - Implicit Counterfactual Data Augmentation for Robust Learning [24.795542869249154]
本研究では, 突発的相関を除去し, 安定した予測を行うために, インプリシト・カウンセショナル・データ拡張法を提案する。
画像とテキストのデータセットをカバーする様々なバイアス付き学習シナリオで実験が行われてきた。
論文 参考訳(メタデータ) (2023-04-26T10:36:40Z) - Open-Set Recognition: A Good Closed-Set Classifier is All You Need [146.6814176602689]
分類器が「ゼロ・オブ・ア・ア・ア・ベ」決定を行う能力は、閉集合クラスにおける精度と高い相関関係があることが示される。
この相関を利用して、閉セット精度を向上させることにより、クロスエントロピーOSR'ベースライン'の性能を向上させる。
また、セマンティックノベルティを検出するタスクをより尊重する新しいベンチマークを構築した。
論文 参考訳(メタデータ) (2021-10-12T17:58:59Z) - Understanding Self-supervised Learning with Dual Deep Networks [74.92916579635336]
本稿では,2組の深層ReLUネットワークを用いたコントラスト型自己教師学習(SSL)手法を理解するための新しい枠組みを提案する。
種々の損失関数を持つSimCLRの各SGD更新において、各層の重みは共分散演算子によって更新されることを示す。
共分散演算子の役割と、そのようなプロセスでどのような特徴が学習されるかをさらに研究するために、我々は、階層的潜在木モデル(HLTM)を用いて、データ生成および増大過程をモデル化する。
論文 参考訳(メタデータ) (2020-10-01T17:51:49Z) - Reparameterized Variational Divergence Minimization for Stable Imitation [57.06909373038396]
確率的発散の選択における変動が、より高性能なILOアルゴリズムをもたらす可能性について検討する。
本稿では,提案する$f$-divergence最小化フレームワークの課題を軽減するために,逆模倣学習のための再パラメータ化手法を提案する。
経験的に、我々の設計選択は、ベースラインアプローチより優れ、低次元連続制御タスクにおける専門家のパフォーマンスとより密に適合するIOOアルゴリズムを許容することを示した。
論文 参考訳(メタデータ) (2020-06-18T19:04:09Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。