論文の概要: Unsupervised Domain Adaptive Object Detection using Forward-Backward
Cyclic Adaptation
- arxiv url: http://arxiv.org/abs/2002.00575v1
- Date: Mon, 3 Feb 2020 06:24:58 GMT
- ステータス: 処理完了
- システム内更新日: 2023-01-04 09:07:10.365108
- Title: Unsupervised Domain Adaptive Object Detection using Forward-Backward
Cyclic Adaptation
- Title(参考訳): 前向きサイクル適応を用いた教師なし領域適応オブジェクト検出
- Authors: Siqi Yang, Lin Wu, Arnold Wiliem and Brian C. Lovell
- Abstract要約: 本稿では,フォワード・バック・サイクリック(FBC)トレーニングによる物体検出のための教師なし領域適応手法を提案する。
近年, 対角訓練に基づく領域適応法は, 限界特徴分布アライメントによる領域差最小化に有効であることが示された。
本稿では,後方ホッピングによるソースからターゲットへの適応と,前方通過によるターゲットからソースへの適応を反復的に計算するフォワード・バック・サイクル適応を提案する。
- 参考スコア(独自算出の注目度): 13.163271874039191
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We present a novel approach to perform the unsupervised domain adaptation for
object detection through forward-backward cyclic (FBC) training. Recent
adversarial training based domain adaptation methods have shown their
effectiveness on minimizing domain discrepancy via marginal feature
distributions alignment. However, aligning the marginal feature distributions
does not guarantee the alignment of class conditional distributions. This
limitation is more evident when adapting object detectors as the domain
discrepancy is larger compared to the image classification task, e.g. various
number of objects exist in one image and the majority of content in an image is
the background. This motivates us to learn domain invariance for category level
semantics via gradient alignment. Intuitively, if the gradients of two domains
point in similar directions, then the learning of one domain can improve that
of another domain. To achieve gradient alignment, we propose Forward-Backward
Cyclic Adaptation, which iteratively computes adaptation from source to target
via backward hopping and from target to source via forward passing. In
addition, we align low-level features for adapting holistic color/texture via
adversarial training. However, the detector performs well on both domains is
not ideal for target domain. As such, in each cycle, domain diversity is
enforced by maximum entropy regularization on the source domain to penalize
confident source-specific learning and minimum entropy regularization on target
domain to intrigue target-specific learning. Theoretical analysis of the
training process is provided, and extensive experiments on challenging
cross-domain object detection datasets have shown the superiority of our
approach over the state-of-the-art.
- Abstract(参考訳): 本稿では,フォワード・バック・サイクリック(FBC)トレーニングによる物体検出のための教師なし領域適応手法を提案する。
近年, 対角訓練に基づく領域適応法は, 限界特徴分布アライメントによる領域差最小化に有効であることが示された。
しかし、限界特徴分布のアライメントは、クラス条件分布のアライメントを保証するものではない。
この制限は、画像分類タスクに比べて、ドメインの不一致としてオブジェクト検出器を適用する場合、例えば、1つの画像にさまざまなオブジェクトが存在し、画像内のコンテンツの大部分が背景である場合、より顕著である。
これにより、勾配アライメントを通してカテゴリレベルのセマンティクスのドメイン不変性を学ぶことができる。
直観的には、2つの領域の勾配が同じ方向を向いた場合、1つの領域の学習は別の領域の勾配を改善することができる。
勾配アライメントを実現するために,後方ホッピングによるソースからターゲットへの適応と,前方通過によるターゲットからソースへの適応を反復的に計算するフォワード・バック・サイクル適応を提案する。
さらに, 包括的色彩/テクスチャ適応のための低レベル特徴を, 対角訓練により調整する。
しかし、検出器は両方の領域でよく機能するが、ターゲット領域には理想的ではない。
このように、各サイクルにおいて、ソースドメインの最大エントロピー正規化によって、信頼度の高いソース固有の学習とターゲットドメインの最小エントロピー正規化をペナルティ化し、ターゲット固有の学習をトリガーする。
トレーニングプロセスの理論的解析を行い,クロスドメインオブジェクト検出データセットに対する広範な実験により,最先端技術に対するアプローチの優位性が示された。
関連論文リスト
- Unsupervised Domain Adaptation for Anatomical Landmark Detection [5.070344284426738]
非教師なし領域適応(UDA)の設定下での解剖学的ランドマーク検出のための新しい枠組みを提案する。
このフレームワークは、自己学習とドメインの敵対的学習を活用して、適応中のドメインギャップに対処する。
脳波および肺のランドマーク検出実験は,領域間隙を広いマージンで低減し,他のUDA法より一貫して優れる手法の有効性を示した。
論文 参考訳(メタデータ) (2023-08-25T10:22:13Z) - AIR-DA: Adversarial Image Reconstruction for Unsupervised Domain
Adaptive Object Detection [28.22783703278792]
特徴抽出器の対角訓練を容易にするための正則化器としての適応画像再構成(AIR)
ドメインシフトに挑戦するいくつかのデータセットにまたがって評価を行った結果,提案手法が従来の手法よりも優れていたことが判明した。
論文 参考訳(メタデータ) (2023-03-27T16:51:51Z) - Cyclically Disentangled Feature Translation for Face Anti-spoofing [61.70377630461084]
循環不整合特徴変換ネットワーク(CDFTN)と呼ばれる新しい領域適応手法を提案する。
CDFTNは、(1)ソースドメイン不変の生長特徴と2)ドメイン固有のコンテンツ特徴とを持つ擬似ラベル付きサンプルを生成する。
ソースドメインラベルの監督の下で、合成擬似ラベル付き画像に基づいてロバスト分類器を訓練する。
論文 参考訳(メタデータ) (2022-12-07T14:12:34Z) - AFAN: Augmented Feature Alignment Network for Cross-Domain Object
Detection [90.18752912204778]
オブジェクト検出のための教師なしドメイン適応は、多くの現実世界のアプリケーションにおいて難しい問題である。
本稿では、中間領域画像生成とドメイン・アドバイザリー・トレーニングを統合した新しい機能アライメント・ネットワーク(AFAN)を提案する。
提案手法は、類似および異種ドメイン適応の双方において、標準ベンチマークにおける最先端の手法よりも大幅に優れている。
論文 参考訳(メタデータ) (2021-06-10T05:01:20Z) - Instance Level Affinity-Based Transfer for Unsupervised Domain
Adaptation [74.71931918541748]
ILA-DAと呼ばれる適応中のソースからターゲットへの転送に対するインスタンス親和性に基づく基準を提案する。
まず、ソースとターゲットをまたいだ類似および異種サンプルを抽出し、マルチサンプルのコントラスト損失を利用してドメインアライメントプロセスを駆動する信頼性が高く効率的な手法を提案する。
ILA-DAの有効性は、様々なベンチマークデータセットに対する一般的なドメイン適応手法よりも精度が一貫した改善を観察することによって検証する。
論文 参考訳(メタデータ) (2021-04-03T01:33:14Z) - Pixel-Level Cycle Association: A New Perspective for Domain Adaptive
Semantic Segmentation [169.82760468633236]
本稿では,ソースとターゲットの画素ペア間の画素レベルサイクルの関連性を構築することを提案する。
我々の手法は1段階のエンドツーエンドで訓練でき、追加のパラメータは導入しない。
論文 参考訳(メタデータ) (2020-10-31T00:11:36Z) - Discriminative Cross-Domain Feature Learning for Partial Domain
Adaptation [70.45936509510528]
部分的なドメイン適応は、より大きく多様なソースドメインからの知識を、より少ないクラス数でより小さなターゲットドメインに適応させることを目的としています。
ドメイン適応の最近の実践は、ターゲットドメインの擬似ラベルを組み込むことで、効果的な特徴を抽出する。
ターゲットデータを少数のソースデータのみにアライメントすることが不可欠である。
論文 参考訳(メタデータ) (2020-08-26T03:18:53Z) - Unsupervised Cross-domain Image Classification by Distance Metric Guided
Feature Alignment [11.74643883335152]
教師なしドメイン適応は、ソースドメインからターゲットドメインに知識を転送する有望な道である。
本稿では,距離メトリックガイド機能アライメント(MetFA)を提案する。
我々のモデルは、クラス分布アライメントを統合して、ソースドメインからターゲットドメインにセマンティック知識を転送します。
論文 参考訳(メタデータ) (2020-08-19T13:36:57Z) - Contradistinguisher: A Vapnik's Imperative to Unsupervised Domain
Adaptation [7.538482310185133]
本研究では,コントラスト特徴を学習するContradistinguisherと呼ばれるモデルを提案する。
Office-31とVisDA-2017における最先端のデータセットを、シングルソースとマルチソースの両方で実現しています。
論文 参考訳(メタデータ) (2020-05-25T19:54:38Z) - CrDoCo: Pixel-level Domain Transfer with Cross-Domain Consistency [119.45667331836583]
教師なしのドメイン適応アルゴリズムは、あるドメインから学んだ知識を別のドメインに転送することを目的としている。
本稿では,新しい画素単位の対向領域適応アルゴリズムを提案する。
論文 参考訳(メタデータ) (2020-01-09T19:00:35Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。