論文の概要: Deep Transductive Transfer Learning for Automatic Target Recognition
- arxiv url: http://arxiv.org/abs/2305.13886v1
- Date: Tue, 23 May 2023 10:10:49 GMT
- ステータス: 処理完了
- システム内更新日: 2023-05-24 17:07:15.293298
- Title: Deep Transductive Transfer Learning for Automatic Target Recognition
- Title(参考訳): 目標自動認識のための深部トランスダクティブトランスダクティブトランスダクション学習
- Authors: Shoaib M. Sami, Nasser M. Nasrabadi, Raghuveer Rao
- Abstract要約: 自動目標認識のための非ペア化トランスダクティブ・トランスダクティブ・ラーニング・フレームワークを提案する。
我々は、CycleGANモデルを用いて、中波長赤外線画像(MWIR)を可視(VIS)領域画像(またはMWIR領域に可視)に転送する。
提案したトランスダクティブCycleGANは, DSIAC ATRデータセットの可視領域車両の分類において, 71.56%の精度を実現している。
- 参考スコア(独自算出の注目度): 18.11215040256388
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: One of the major obstacles in designing an automatic target recognition (ATR)
algorithm, is that there are often labeled images in one domain (i.e., infrared
source domain) but no annotated images in the other target domains (i.e.,
visible, SAR, LIDAR). Therefore, automatically annotating these images is
essential to build a robust classifier in the target domain based on the
labeled images of the source domain. Transductive transfer learning is an
effective way to adapt a network to a new target domain by utilizing a
pretrained ATR network in the source domain. We propose an unpaired
transductive transfer learning framework where a CycleGAN model and a
well-trained ATR classifier in the source domain are used to construct an ATR
classifier in the target domain without having any labeled data in the target
domain. We employ a CycleGAN model to transfer the mid-wave infrared (MWIR)
images to visible (VIS) domain images (or visible to MWIR domain). To train the
transductive CycleGAN, we optimize a cost function consisting of the
adversarial, identity, cycle-consistency, and categorical cross-entropy loss
for both the source and target classifiers. In this paper, we perform a
detailed experimental analysis on the challenging DSIAC ATR dataset. The
dataset consists of ten classes of vehicles at different poses and distances
ranging from 1-5 kilometers on both the MWIR and VIS domains. In our
experiment, we assume that the images in the VIS domain are the unlabeled
target dataset. We first detect and crop the vehicles from the raw images and
then project them into a common distance of 2 kilometers. Our proposed
transductive CycleGAN achieves 71.56% accuracy in classifying the visible
domain vehicles in the DSIAC ATR dataset.
- Abstract(参考訳): 自動目標認識(ATR)アルゴリズムを設計する際の大きな障害の1つは、しばしば1つのドメイン(赤外線ソースドメイン)にラベル付き画像があるが、他のターゲットドメイン(つまり、SAR、LIDAR)には注釈付き画像がないことである。
したがって、ソースドメインのラベル付きイメージに基づいて、ターゲットドメインにロバストな分類器を構築するには、これらのイメージに自動アノテートすることが不可欠である。
トランスダクティブトランスファー学習は、ソースドメイン内の事前学習されたATRネットワークを利用することで、ネットワークを新しいターゲットドメインに適応させる効果的な方法である。
本稿では、ソースドメイン内のCycleGANモデルとよく訓練されたATR分類器を用いて、ターゲットドメインにラベル付きデータを持たずに、ターゲットドメイン内のATR分類器を構築する、非ペア化トランスダクティブ学習フレームワークを提案する。
我々は、CycleGANモデルを用いて、中波長赤外線画像(MWIR)を可視(VIS)領域画像(またはMWIR領域に可視)に転送する。
トランスダクティブなCycleGANをトレーニングするために、ソースとターゲットの分類器の両方に対して、逆数、アイデンティティ、サイクル整合性、カテゴリ間のエントロピー損失からなるコスト関数を最適化する。
本稿では,挑戦的なDSIAC ATRデータセットに関する詳細な実験的検討を行う。
データセットは、MWIRドメインとVISドメインの両方で、異なるポーズと距離で10種類の車両で構成されている。
実験では、VIS領域の画像が未ラベルのターゲットデータセットであると仮定した。
まず、原画像から車両を検出して収穫し、その後、共通の距離2kmに投影します。
提案したトランスダクティブCycleGANは, DSIAC ATRデータセットの可視領域車両の分類において, 71.56%の精度を実現している。
関連論文リスト
- Pulling Target to Source: A New Perspective on Domain Adaptive Semantic Segmentation [80.1412989006262]
ドメイン適応セマンティックセグメンテーションは、ラベル付きソースドメインからラベルなしターゲットドメインに知識を転送することを目的としています。
我々はT2S-DAを提案し、T2S-DAはドメイン適応のためのソースにターゲットを引っ張る形式として解釈する。
論文 参考訳(メタデータ) (2023-05-23T07:09:09Z) - Self-Training Guided Disentangled Adaptation for Cross-Domain Remote
Sensing Image Semantic Segmentation [20.07907723950031]
本稿では,クロスドメインRS画像セマンティックセグメンテーションタスクのための自己学習ガイド型不整合適応ネットワーク(ST-DASegNet)を提案する。
まず,ソースとターゲットの両方のイメージに対して,ソーススタイルとターゲットスタイルの特徴をそれぞれ抽出するために,ソース学生のバックボーンとターゲット学生のバックボーンを提案する。
次に、ユニバーサルな特徴を抽出し、ソーススタイルとターゲットスタイルの特徴の異なる特徴を浄化するために、ドメイン非絡み合いモジュールを提案する。
論文 参考訳(メタデータ) (2023-01-13T13:11:22Z) - QuadFormer: Quadruple Transformer for Unsupervised Domain Adaptation in
Power Line Segmentation of Aerial Images [12.840195641761323]
ドメイン適応型セマンティックセグメンテーションのための新しいフレームワークを提案する。
階層的な四重変圧器は、伝達可能なコンテキストに適応するために、クロスアテンションと自己アテンションのメカニズムを組み合わせる。
ARPLSynとARPLRealの2つのデータセットを提示し、教師なし領域適応電力線分割の研究をさらに進める。
論文 参考訳(メタデータ) (2022-11-29T03:15:27Z) - Toward Data-Driven STAP Radar [23.333816677794115]
我々は、時空間適応処理(STAP)レーダーに対するデータ駆動アプローチを特徴付ける。
所定領域に可変強度のターゲットをランダムに配置することにより、受信レーダ信号の豊富なサンプルデータセットを生成する。
この領域内の各データサンプルに対して、ビームフォーマの出力パワーのレンジ、方位、および上昇のヒートマップテンソルを生成する。
空中に浮かぶシナリオでは、動くレーダーは、ビデオに似た、これらのタイムインデクシングされたイメージスタックのシーケンスを生成する。
論文 参考訳(メタデータ) (2022-01-26T02:28:13Z) - HYLDA: End-to-end Hybrid Learning Domain Adaptation for LiDAR Semantic
Segmentation [13.87939140266266]
完全ラベル付きソースデータセットと少数のラベルしか持たないターゲットデータセットを用いて,LiDARセマンティックセマンティックセマンティクスネットワークをトレーニングする問題に対処する。
我々は、新しい画像から画像への変換エンジンを開発し、それをLiDARセマンティックセマンティックセグメンテーションネットワークと組み合わせることで、HYLDAと呼ばれる統合ドメイン適応アーキテクチャを実現する。
論文 参考訳(メタデータ) (2022-01-14T18:13:09Z) - Frequency Spectrum Augmentation Consistency for Domain Adaptive Object
Detection [107.52026281057343]
周波数スペクトル拡張整合(FSAC)フレームワークを4種類の低周波フィルタで構成する。
最初の段階では、オリジナルおよび拡張されたソースデータを全て利用して、オブジェクト検出器を訓練する。
第2段階では、予測一貫性のための自己学習を行うために、擬似ラベル付き拡張現実とターゲットデータを採用する。
論文 参考訳(メタデータ) (2021-12-16T04:07:01Z) - Stagewise Unsupervised Domain Adaptation with Adversarial Self-Training
for Road Segmentation of Remote Sensing Images [93.50240389540252]
リモートセンシング画像からの道路セグメンテーションは、幅広い応用可能性を持つ課題である。
本稿では,この領域における領域シフト(DS)問題に対処するため,RoadDAと呼ばれる新たな段階的ドメイン適応モデルを提案する。
2つのベンチマーク実験の結果、RoadDAはドメインギャップを効率的に減らし、最先端の手法より優れていることが示された。
論文 参考訳(メタデータ) (2021-08-28T09:29:14Z) - Emotional Semantics-Preserved and Feature-Aligned CycleGAN for Visual
Emotion Adaptation [85.20533077846606]
教師なしドメイン適応(UDA)は、あるラベル付きソースドメインで訓練されたモデルを別のラベル付きターゲットドメインに転送する問題を研究する。
本稿では,感情分布学習と支配的感情分類の両面での視覚的感情分析におけるUDAに着目した。
本稿では,CycleEmotionGAN++と呼ばれる,エンドツーエンドのサイクル整合対向モデルを提案する。
論文 参考訳(メタデータ) (2020-11-25T01:31:01Z) - DoFE: Domain-oriented Feature Embedding for Generalizable Fundus Image
Segmentation on Unseen Datasets [96.92018649136217]
対象ドメインに対するCNNの一般化能力を向上させるために,新しいドメイン指向特徴埋め込み(DoFE)フレームワークを提案する。
私たちのDoFEフレームワークは、マルチソースドメインから学んだ追加のドメイン事前知識で、画像機能を動的に強化します。
本フレームワークは、未確認データセットのセグメンテーション結果を満足して生成し、他の領域の一般化やネットワークの正規化手法を超越する。
論文 参考訳(メタデータ) (2020-10-13T07:28:39Z) - Background Adaptive Faster R-CNN for Semi-Supervised Convolutional
Object Detection of Threats in X-Ray Images [64.39996451133268]
我々は、バックグラウンド適応型高速R-CNNと呼ばれる脅威認識のための半教師付きアプローチを提案する。
本手法は,ディープラーニング分野からのドメイン適応手法を用いた2段階物体検出器の訓練手法である。
2つのドメイン識別器(1つはオブジェクト提案を識別し、もう1つは画像特徴を識別する)は、ドメイン固有の情報を符号化するのを防ぐために敵対的に訓練される。
これにより、手作業の背景から抽出した特徴の統計と実世界のデータとを一致させることで、脅威検出の誤報率を低減することができる。
論文 参考訳(メタデータ) (2020-10-02T21:05:13Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。