論文の概要: CL-CaGAN: Capsule differential adversarial continuous learning for cross-domain hyperspectral anomaly detection
- arxiv url: http://arxiv.org/abs/2505.11793v1
- Date: Sat, 17 May 2025 02:32:41 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-20 14:57:10.850149
- Title: CL-CaGAN: Capsule differential adversarial continuous learning for cross-domain hyperspectral anomaly detection
- Title(参考訳): CL-CaGAN : クロスドメインハイパースペクトル異常検出のためのカプセル差分逆連続学習
- Authors: Jianing Wang, Siying Guo, Zheng Hua, Runhu Huang, Jinyu Hu, Maoguo Gong,
- Abstract要約: ハイパースペクトル画像(HSI)処理分野において,異常検出(AD)が注目されている。
既存のディープラーニング(DL)ベースのアルゴリズムの多くは、現在のシナリオの下で特定のトレーニングプロセスを通じて異常サンプルを検出する劇的な可能性を示している。
しかし, 先行情報に制限があることと, 悲惨な忘れがちな問題は, オープンシナリオのクロスドメイン検出において, 既存のDL構造にとって重要な課題であることを示している。
- 参考スコア(独自算出の注目度): 21.952352543304592
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Anomaly detection (AD) has attracted remarkable attention in hyperspectral image (HSI) processing fields, and most existing deep learning (DL)-based algorithms indicate dramatic potential for detecting anomaly samples through specific training process under current scenario. However, the limited prior information and the catastrophic forgetting problem indicate crucial challenges for existing DL structure in open scenarios cross-domain detection. In order to improve the detection performance, a novel continual learning-based capsule differential generative adversarial network (CL-CaGAN) is proposed to elevate the cross-scenario learning performance for facilitating the real application of DL-based structure in hyperspectral AD (HAD) task. First, a modified capsule structure with adversarial learning network is constructed to estimate the background distribution for surmounting the deficiency of prior information. To mitigate the catastrophic forgetting phenomenon, clustering-based sample replay strategy and a designed extra self-distillation regularization are integrated for merging the history and future knowledge in continual AD task, while the discriminative learning ability from previous detection scenario to current scenario is retained by the elaborately designed structure with continual learning (CL) strategy. In addition, the differentiable enhancement is enforced to augment the generation performance of the training data. This further stabilizes the training process with better convergence and efficiently consolidates the reconstruction ability of background samples. To verify the effectiveness of our proposed CL-CaGAN, we conduct experiments on several real HSIs, and the results indicate that the proposed CL-CaGAN demonstrates higher detection performance and continuous learning capacity for mitigating the catastrophic forgetting under cross-domain scenarios.
- Abstract(参考訳): 異常検出(AD)は、ハイパースペクトル画像(HSI)処理分野において注目されており、既存のディープラーニング(DL)ベースのアルゴリズムの多くは、現在のシナリオの下で特定のトレーニングプロセスを通じて異常サンプルを検出する劇的な可能性を示している。
しかし, 先行情報に制限があることと, 悲惨な忘れがちな問題は, オープンシナリオのクロスドメイン検出において, 既存のDL構造にとって重要な課題であることを示している。
検出性能を向上させるために,高スペクトルAD(HAD)タスクにおけるDL構造の実適用を容易にするためのクロスシナリオ学習性能を高めるために,連続学習に基づくカプセル差分生成対向ネットワーク(CL-CaGAN)を提案する。
まず, 先行情報不足を克服するための背景分布を推定するために, 対向学習ネットワークを用いた改良型カプセル構造を構築した。
破滅的な忘れ現象を緩和するために、クラスタリングに基づくサンプル再生戦略と設計された余分な自己蒸留規則を統合して、連続ADタスクにおける履歴と将来の知識を融合させ、従来の検出シナリオから現在のシナリオへの識別学習能力を、連続学習戦略を備えた精巧に設計された構造で保持する。
また、訓練データの生成性能を高めるために、差別化可能な強化を施す。
これにより、より良い収束でトレーニングプロセスを安定化し、バックグラウンドサンプルの再構築能力を効率的に統合する。
提案するCL-CaGANの有効性を検証するため,提案したCL-CaGANは,クロスドメインシナリオ下での破滅的忘れを軽減し,高い検出性能と連続学習能力を示すことを示す。
関連論文リスト
- Temporal-Difference Variational Continual Learning [89.32940051152782]
複数の先行推定の正則化効果を統合する新たな学習目標を提案する。
提案手法は, 変分CL法より優れたカタストロフィックフォーミングを効果的に緩和する。
論文 参考訳(メタデータ) (2024-10-10T10:58:41Z) - Reshaping the Online Data Buffering and Organizing Mechanism for Continual Test-Time Adaptation [49.53202761595912]
継続的なテスト時間適応は、訓練済みのソースモデルを適用して、教師なしのターゲットドメインを継続的に変更する。
我々は、オンライン環境、教師なしの自然、エラー蓄積や破滅的な忘れのリスクなど、このタスクの課題を分析する。
教師なしシングルパスデータストリームから重要サンプルを高い確実性で識別・集約する不確実性を考慮したバッファリング手法を提案する。
論文 参考訳(メタデータ) (2024-07-12T15:48:40Z) - Dynamic Sub-graph Distillation for Robust Semi-supervised Continual Learning [47.64252639582435]
半教師付き連続学習(SSCL)に焦点をあて、そのモデルが未知のカテゴリを持つ部分ラベル付きデータから徐々に学習する。
半教師付き連続学習のための動的サブグラフ蒸留法(DSGD)を提案する。
論文 参考訳(メタデータ) (2023-12-27T04:40:12Z) - Continual Learning with Dirichlet Generative-based Rehearsal [22.314195832409755]
本稿では,タスク指向対話システムのための新しい生成型リハーサル戦略であるDirichlet Continual Learningを紹介する。
また,ロジットに基づく堅牢な知識蒸留法であるJensen-Shannon Knowledge Distillation (JSKD)についても紹介する。
本研究は,本手法の有効性を実証し,本手法の有効性を確認した。
論文 参考訳(メタデータ) (2023-09-13T12:30:03Z) - Small Object Detection via Coarse-to-fine Proposal Generation and
Imitation Learning [52.06176253457522]
本稿では,粗粒度パイプラインと特徴模倣学習に基づく小型物体検出に適した2段階フレームワークを提案する。
CFINetは、大規模な小さなオブジェクト検出ベンチマークであるSODA-DとSODA-Aで最先端の性能を達成する。
論文 参考訳(メタデータ) (2023-08-18T13:13:09Z) - Learning Prompt-Enhanced Context Features for Weakly-Supervised Video
Anomaly Detection [37.99031842449251]
弱い監督下での映像異常検出は重大な課題を呈する。
本稿では,効率的なコンテキストモデリングとセマンティック識別性の向上に焦点をあてた,弱教師付き異常検出フレームワークを提案する。
提案手法は,特定の異常なサブクラスの検出精度を大幅に向上させ,その実用的価値と有効性を裏付けるものである。
論文 参考訳(メタデータ) (2023-06-26T06:45:16Z) - Regularization Through Simultaneous Learning: A Case Study on Plant
Classification [0.0]
本稿では,トランスファーラーニングとマルチタスクラーニングの原則に基づく正規化アプローチである同時学習を紹介する。
我々は、ターゲットデータセットであるUFOP-HVDの補助データセットを活用し、カスタマイズされた損失関数でガイドされた同時分類を容易にする。
興味深いことに,本手法は正規化のないモデルよりも優れた性能を示す。
論文 参考訳(メタデータ) (2023-05-22T19:44:57Z) - Uncertainty Estimation by Fisher Information-based Evidential Deep
Learning [61.94125052118442]
不確実性推定は、ディープラーニングを実用アプリケーションで信頼できるものにする鍵となる要素である。
漁業情報に基づくエビデンシャルディープラーニング(mathcalI$-EDL)を提案する。
特に,各サンプルが有する証拠の情報量を測定するためにFisher Information Matrix (FIM)を導入し,目的的損失項を動的に重み付けし,不確実なクラスの表現学習に集中させる。
論文 参考訳(メタデータ) (2023-03-03T16:12:59Z) - Latent Spectral Regularization for Continual Learning [21.445600749028923]
本研究では,学習者の潜伏空間の幾何学的特徴について検討する。
潜在空間のラプラシアンスペクトルの弱い要求を強制する幾何正則化器を提案する。
論文 参考訳(メタデータ) (2023-01-09T13:56:59Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。