論文の概要: Consistency-Regularized GAN for Few-Shot SAR Target Recognition
- arxiv url: http://arxiv.org/abs/2601.15681v1
- Date: Thu, 22 Jan 2026 06:02:39 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-23 21:37:20.511502
- Title: Consistency-Regularized GAN for Few-Shot SAR Target Recognition
- Title(参考訳): Few-Shot SARターゲット認識のための一貫性規則化GAN
- Authors: Yikui Zhai, Shikuang Liu, Wenlve Zhou, Hongsheng Zhang, Zhiheng Zhou, Xiaolin Tian, C. L. Philip Chen,
- Abstract要約: 合成開口レーダ(SAR)画像におけるわずかなショット認識は、極端なデータ不足のため、現実世界のアプリケーションにとって重要なボトルネックとなっている。
有望な戦略としては、GAN(Generative Adversarial Network)を備えた大規模なデータセット、自己教師付き学習(SSL)によるモデルの事前トレーニング、ラベル付きサンプルの微調整などがある。
このアプローチは基本的なパラドックスに直面する: 従来のGAN自身は、安定したトレーニングのために豊富なデータを必要とし、少数ショット学習の前提に反する。
多様な高次合成を目的とした新しいフレームワークCr-GANを提案する。
- 参考スコア(独自算出の注目度): 40.2533418376231
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Few-shot recognition in synthetic aperture radar (SAR) imagery remains a critical bottleneck for real-world applications due to extreme data scarcity. A promising strategy involves synthesizing a large dataset with a generative adversarial network (GAN), pre-training a model via self-supervised learning (SSL), and then fine-tuning on the few labeled samples. However, this approach faces a fundamental paradox: conventional GANs themselves require abundant data for stable training, contradicting the premise of few-shot learning. To resolve this, we propose the consistency-regularized generative adversarial network (Cr-GAN), a novel framework designed to synthesize diverse, high-fidelity samples even when trained under these severe data limitations. Cr-GAN introduces a dual-branch discriminator that decouples adversarial training from representation learning. This architecture enables a channel-wise feature interpolation strategy to create novel latent features, complemented by a dual-domain cycle consistency mechanism that ensures semantic integrity. Our Cr-GAN framework is adaptable to various GAN architectures, and its synthesized data effectively boosts multiple SSL algorithms. Extensive experiments on the MSTAR and SRSDD datasets validate our approach, with Cr-GAN achieving a highly competitive accuracy of 71.21% and 51.64%, respectively, in the 8-shot setting, significantly outperforming leading baselines, while requiring only ~5 of the parameters of state-of-the-art diffusion models. Code is available at: https://github.com/yikuizhai/Cr-GAN.
- Abstract(参考訳): 合成開口レーダ(SAR)画像におけるわずかなショット認識は、極端なデータ不足のため、現実世界のアプリケーションにとって重要なボトルネックとなっている。
有望な戦略は、生成的敵ネットワーク(GAN)で大規模なデータセットを合成し、自己教師付き学習(SSL)を介してモデルを事前トレーニングし、少数のラベル付きサンプルを微調整することである。
しかし、このアプローチは基本的なパラドックスに直面する: 従来のGAN自身は安定したトレーニングのために豊富なデータを必要とし、少数ショット学習の前提に反する。
この問題を解決するために,これらの厳しいデータ制限の下で訓練しても多種多様な高忠実度サンプルを合成する新しいフレームワークCr-GANを提案する。
Cr-GANは、対向訓練を表現学習から切り離すデュアルブランチ判別器を導入している。
このアーキテクチャにより、チャネルワイドな機能補間戦略により、セマンティックな整合性を保証するデュアルドメインサイクル整合性機構によって補完される、新しい潜在機能を作成することができる。
我々のCr-GANフレームワークは様々なGANアーキテクチャに適用可能であり、その合成データによって複数のSSLアルゴリズムが効果的に向上する。
MSTARとSRSDDデータセットの大規模な実験により、Cr-GANは8ショット設定でそれぞれ71.21%と51.64%の高い競争精度を達成し、最先端のベースラインを著しく上回り、最先端拡散モデルのパラメータの5パーセントしか必要とせず、我々のアプローチを検証することができた。
コードは、https://github.com/yikuizhai/Cr-GAN.comで入手できる。
関連論文リスト
- Adapting Multimodal Foundation Models for Few-Shot Learning: A Comprehensive Study on Contrastive Captioners [1.2461503242570642]
本稿では,コントラシティブ・キャピタ(CoCa)視覚バックボーンを用いた画像分類手法を提案する。
強いデータ拡張は、低ショット環境での線形探索の性能を低下させるが、LoRA微調整の安定化には不可欠である。
また,Supervised Contrastive (SupCon) の損失を組み込んだハイブリッド目的が,標準的なクロスエントロピーよりも一貫した性能向上をもたらすことを示す。
論文 参考訳(メタデータ) (2025-12-14T20:13:21Z) - CoT-Saliency: Unified Chain-of-Thought Reasoning for Heterogeneous Saliency Tasks [96.64597365827046]
本稿では,3つの運用上不均一なサリエンシタスクを共同で処理する,最初の統合フレームワークを提案する。
タスクの不均一性を橋渡しする視覚言語モデル(VLM)において、チェーン・オブ・ソート(CoT)推論プロセスを導入する。
我々は,全タスクにまたがる特別なSOTA手法と強力なクローズドソースVLMの整合性を示す。
論文 参考訳(メタデータ) (2025-11-01T04:37:01Z) - Knowledge-Informed Neural Network for Complex-Valued SAR Image Recognition [51.03674130115878]
本稿では,新しい「圧縮集約圧縮」アーキテクチャ上に構築された軽量なフレームワークであるKnowledge-Informed Neural Network(KINN)を紹介する。
KINNはパラメータ効率の認識における最先端を確立し、データスカースとアウト・オブ・ディストリビューションのシナリオにおいて例外的な一般化を提供する。
論文 参考訳(メタデータ) (2025-10-23T07:12:26Z) - An Advanced Convolutional Neural Network for Bearing Fault Diagnosis under Limited Data [5.351573093028336]
本稿では,限られたデータの下で故障診断を行うための高度なデータ拡張とコントラッシブ・フーリエ・コンボリューション・フレームワーク(DAC-FCF)を提案する。
DAC-FCFは、ベースラインを最大32%上回る、大幅な改善を達成している。
論文 参考訳(メタデータ) (2025-09-14T02:41:48Z) - IncSAR: A Dual Fusion Incremental Learning Framework for SAR Target Recognition [13.783950035836593]
IncSARは、ターゲット認識における破滅的な忘れに対処するために設計された漸進的な学習フレームワークである。
SAR画像に固有のスペックルノイズを軽減するため、ニューラルネットワーク近似に基づくデノナイジングモジュールを用いる。
MSTAR、SAR-AIRcraft-1.0、OpenSARShipベンチマークデータセットの実験は、IncSARが最先端のアプローチを大幅に上回っていることを示している。
論文 参考訳(メタデータ) (2024-10-08T08:49:47Z) - Enhancing GANs with Contrastive Learning-Based Multistage Progressive Finetuning SNN and RL-Based External Optimization [0.0]
Gene Adversarial Networks (GAN) は画像合成の最前線にあり、特に病理学のような医学分野において、データの不足、患者のプライバシー、クラス不均衡といった課題に対処している。
GANでは、トレーニングの不安定性、モード崩壊、バイナリ分類からのフィードバック不足がパフォーマンスを損なう可能性がある。
これらの課題は、複雑な特徴表現と空間的詳細のため、特に高解像度の病理像で顕著である。
論文 参考訳(メタデータ) (2024-09-30T14:39:56Z) - Model Inversion Attacks Through Target-Specific Conditional Diffusion Models [54.69008212790426]
モデル反転攻撃(MIA)は、ターゲット分類器のトレーニングセットからプライベートイメージを再構築することを目的としており、それによってAIアプリケーションにおけるプライバシー上の懸念が高まる。
従来のGANベースのMIAは、GANの固有の欠陥と潜伏空間における最適化の偏りにより、劣った遺伝子的忠実度に悩まされる傾向にある。
これらの問題を緩和するために拡散モデル反転(Diff-MI)攻撃を提案する。
論文 参考訳(メタデータ) (2024-07-16T06:38:49Z) - CAFE: Learning to Condense Dataset by Aligning Features [72.99394941348757]
本稿ではCAFE(Aligning features)によるCondenseデータセットの新しいスキームを提案する。
このアプローチの核心は、さまざまなスケールにわたる実データと合成データから機能を整合させる効果的な戦略です。
提案したCAFEを様々なデータセットで検証し,概ね最先端技術であることを示す。
論文 参考訳(メタデータ) (2022-03-03T05:58:49Z) - Understanding Self-supervised Learning with Dual Deep Networks [74.92916579635336]
本稿では,2組の深層ReLUネットワークを用いたコントラスト型自己教師学習(SSL)手法を理解するための新しい枠組みを提案する。
種々の損失関数を持つSimCLRの各SGD更新において、各層の重みは共分散演算子によって更新されることを示す。
共分散演算子の役割と、そのようなプロセスでどのような特徴が学習されるかをさらに研究するために、我々は、階層的潜在木モデル(HLTM)を用いて、データ生成および増大過程をモデル化する。
論文 参考訳(メタデータ) (2020-10-01T17:51:49Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。