論文の概要: Background Debiased SAR Target Recognition via Causal Interventional
Regularizer
- arxiv url: http://arxiv.org/abs/2308.15724v1
- Date: Wed, 30 Aug 2023 02:56:55 GMT
- ステータス: 処理完了
- システム内更新日: 2023-08-31 15:05:50.197098
- Title: Background Debiased SAR Target Recognition via Causal Interventional
Regularizer
- Title(参考訳): 因果干渉正則化器による背景偏差SAR目標認識
- Authors: Hongwei Dong and Fangzhou Han and Lingyu Si and Wenwen Qiang and Lamei
Zhang
- Abstract要約: 認識すべきSAR画像は、前景(すなわち、ターゲット)だけでなく、背景領域の一定の大きさも含んでいることを示す。
このことは、背景の存在は、DLモデルがターゲットに関する追加のセマンティック情報を学ぶ能力を妨げていることを示唆している。
本稿では,因果介入に基づく正規化手法を提案する。
- 参考スコア(独自算出の注目度): 13.49307175561975
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Recent studies have utilized deep learning (DL) techniques to automatically
extract features from synthetic aperture radar (SAR) images, which shows great
promise for enhancing the performance of SAR automatic target recognition
(ATR). However, our research reveals a previously overlooked issue: SAR images
to be recognized include not only the foreground (i.e., the target), but also a
certain size of the background area. When a DL-model is trained exclusively on
foreground data, its recognition performance is significantly superior to a
model trained on original data that includes both foreground and background.
This suggests that the presence of background impedes the ability of the
DL-model to learn additional semantic information about the target. To address
this issue, we construct a structural causal model (SCM) that incorporates the
background as a confounder. Based on the constructed SCM, we propose a causal
intervention based regularization method to eliminate the negative impact of
background on feature semantic learning and achieve background debiased
SAR-ATR. The proposed causal interventional regularizer can be integrated into
any existing DL-based SAR-ATR models to mitigate the impact of background
interference on the feature extraction and recognition accuracy. Experimental
results on the Moving and Stationary Target Acquisition and Recognition (MSTAR)
dataset indicate that the proposed method can enhance the efficiency of
existing DL-based methods in a plug-and-play manner.
- Abstract(参考訳): 近年, 深層学習技術を用いて合成開口レーダ(SAR)画像から特徴を自動的に抽出し, SAR自動目標認識(ATR)の性能向上に寄与している。
認識すべきSAR画像は、前景(すなわち、ターゲット)だけでなく、背景領域の一定の大きさも含んでいる。
dl-モデルが前景データのみに基づいてトレーニングされた場合、その認識性能は前景と背景の両方を含む元のデータでトレーニングされたモデルよりも著しく優れている。
これは、背景の存在がdlモデルがターゲットに関する追加的な意味情報を学習する能力を妨げることを示唆している。
この問題に対処するため,共同設立者としての背景を取り入れた構造因果モデル(SCM)を構築した。
構築したSCMに基づいて因果介入に基づく正規化手法を提案し,特徴意味学習における背景の負の影響を排除し,背景偏りのSAR-ATRを実現する。
提案する因果的介入正規化器は既存のdlベースのsar-atrモデルと統合でき、背景干渉が特徴抽出と認識精度に与える影響を緩和できる。
mstar(moving and stationary target acquisition and recognition)データセットにおける実験結果から,提案手法が既存のdl方式の効率をプラグ・アンド・プレイ方式で向上できることが示唆された。
関連論文リスト
- IncSAR: A Dual Fusion Incremental Learning Framework for SAR Target Recognition [7.9330990800767385]
破滅的な忘れ方として知られる新しいタスクを学ぶとき、モデルが古い知識を忘れる傾向は、未解決の課題である。
本稿では,SAR目標認識における破滅的忘れを緩和するために,IncSARと呼ばれる漸進的学習フレームワークを提案する。
IncSARはビジョントランスフォーマー(ViT)と、遅延融合戦略によって結合された個々のブランチにカスタム設計の畳み込みニューラルネットワーク(CNN)を備える。
論文 参考訳(メタデータ) (2024-10-08T08:49:47Z) - SSP-RACL: Classification of Noisy Fundus Images with Self-Supervised Pretraining and Robust Adaptive Credal Loss [3.8739860035485143]
基礎画像分類はコンピュータの診断タスクにおいて重要であるが、ラベルノイズはディープニューラルネットワークの性能を著しく損なう。
本稿では,ロバスト適応クレダルロス (SSP-RACL) を用いた自己監督型事前訓練(Self-Supervised Pre-training)を提案する。
論文 参考訳(メタデータ) (2024-09-25T02:41:58Z) - What Happens Without Background? Constructing Foreground-Only Data for Fine-Grained Tasks [12.486263801451503]
きめ細かい認識は、サンプルに存在する識別情報に基づいて類似のサブクラスを区別することを目的としている。
一般的な方法は、しばしば背景に誤って焦点を合わせ、被写体から真に効果的な識別情報の取得を無視する。
本研究では,SAMとDeticの機能を活用して,前景のみの詳細なデータセットを作成するパイプラインを提案する。
論文 参考訳(メタデータ) (2024-08-04T11:51:00Z) - DPMesh: Exploiting Diffusion Prior for Occluded Human Mesh Recovery [71.6345505427213]
DPMeshは、人間のメッシュリカバリを排除した革新的なフレームワークである。
これは、事前訓練されたテキスト・ツー・イメージ拡散モデルに埋め込まれた対象構造と空間的関係について、より深い拡散に乗じる。
論文 参考訳(メタデータ) (2024-04-01T18:59:13Z) - Visual Privacy Auditing with Diffusion Models [52.866433097406656]
本稿では,拡散モデル(DM)に基づくリコンストラクション攻撃を提案する。
本研究では,(1)実世界のデータ漏洩が再建の成功に大きく影響すること,(2)現在のリビルド境界がデータ先行によるリスクをうまくモデル化していないこと,(3)DMは,プライバシー漏洩を可視化するための効果的な監査ツールとして機能すること,を示す。
論文 参考訳(メタデータ) (2024-03-12T12:18:55Z) - ArSDM: Colonoscopy Images Synthesis with Adaptive Refinement Semantic
Diffusion Models [69.9178140563928]
大腸内視鏡検査は臨床診断や治療に不可欠である。
注釈付きデータの不足は、既存の手法の有効性と一般化を制限する。
本稿では, 下流作業に有用な大腸内視鏡画像を生成するために, 適応Refinement Semantic Diffusion Model (ArSDM)を提案する。
論文 参考訳(メタデータ) (2023-09-03T07:55:46Z) - Weakly-supervised Contrastive Learning for Unsupervised Object Discovery [52.696041556640516]
ジェネリックな方法でオブジェクトを発見できるため、教師なしのオブジェクト発見は有望である。
画像から高レベルな意味的特徴を抽出する意味誘導型自己教師学習モデルを設計する。
オブジェクト領域のローカライズのための主成分分析(PCA)を導入する。
論文 参考訳(メタデータ) (2023-07-07T04:03:48Z) - Learning Invariant Representation via Contrastive Feature Alignment for
Clutter Robust SAR Target Recognition [10.993101256393679]
本稿ではコントラスト的特徴アライメント(Contrastive Feature Alignment, CFA)と呼ばれる手法を提案し, 頑健な認識のための不変表現を学習する。
CFAは、分類とCWMSEの損失を組み合わせて、モデルを共同で訓練する。
提案したCFAは、分類とCWMSE損失を併用してモデルをトレーニングし、不変対象表現の漸進的学習を可能にする。
論文 参考訳(メタデータ) (2023-04-04T12:35:33Z) - Cluster-level pseudo-labelling for source-free cross-domain facial
expression recognition [94.56304526014875]
表情認識のためのSFUDA法を提案する。
本手法は,自己教師付き事前学習を利用して,対象データから優れた特徴表現を学習する。
提案手法の有効性を4つの適応方式で検証し,FERに適用した場合,既存のSFUDA法より一貫して優れていることを示す。
論文 参考訳(メタデータ) (2022-10-11T08:24:50Z) - Learning Bias-Invariant Representation by Cross-Sample Mutual
Information Minimization [77.8735802150511]
対象タスクが誤用したバイアス情報を除去するために,クロスサンプル対逆脱バイアス法(CSAD)を提案する。
相関測定は, 対向的偏り評価において重要な役割を担い, クロスサンプル型相互情報推定器によって行われる。
我々は,提案手法の最先端手法に対する利点を検証するために,公開データセットの徹底的な実験を行った。
論文 参考訳(メタデータ) (2021-08-11T21:17:02Z) - T-GD: Transferable GAN-generated Images Detection Framework [16.725880610265378]
本稿では,Transferable GAN-images Detection framework T-GDを提案する。
T-GDは教師と学生モデルから構成されており、相互に反復的に教え、評価し、検出性能を向上させることができる。
学生モデルを訓練するために、音源とターゲットデータセットを混合してノイズを注入し、ウェイト変動を制約して開始点を保存する。
論文 参考訳(メタデータ) (2020-08-10T13:20:19Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。