論文の概要: Cross-Domain Object Detection via Adaptive Self-Training
- arxiv url: http://arxiv.org/abs/2111.13216v1
- Date: Thu, 25 Nov 2021 18:50:15 GMT
- ステータス: 処理完了
- システム内更新日: 2021-11-29 16:42:01.816734
- Title: Cross-Domain Object Detection via Adaptive Self-Training
- Title(参考訳): Adaptive Self-Trainingによるクロスドメインオブジェクト検出
- Authors: Yu-Jhe Li, Xiaoliang Dai, Chih-Yao Ma, Yen-Cheng Liu, Kan Chen, Bichen
Wu, Zijian He, Kris Kitani, Peter Vadja
- Abstract要約: 適応的無バイアス教師(AUT)という自己学習フレームワークを提案する。
AUTは、ドメインシフトに対処するために、逆学習と弱い強度データ拡張を使用する。
私たちは、AUTが既存のすべてのアプローチやOracle(完全に監督された)モデルよりも大きなマージンで優れていることを示しています。
- 参考スコア(独自算出の注目度): 45.48690932743266
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: We tackle the problem of domain adaptation in object detection, where there
is a significant domain shift between a source (a domain with supervision) and
a target domain (a domain of interest without supervision). As a widely adopted
domain adaptation method, the self-training teacher-student framework (a
student model learns from pseudo labels generated from a teacher model) has
yielded remarkable accuracy gain on the target domain. However, it still
suffers from the large amount of low-quality pseudo labels (e.g., false
positives) generated from the teacher due to its bias toward the source domain.
To address this issue, we propose a self-training framework called Adaptive
Unbiased Teacher (AUT) leveraging adversarial learning and weak-strong data
augmentation during mutual learning to address domain shift. Specifically, we
employ feature-level adversarial training in the student model, ensuring
features extracted from the source and target domains share similar statistics.
This enables the student model to capture domain-invariant features.
Furthermore, we apply weak-strong augmentation and mutual learning between the
teacher model on the target domain and the student model on both domains. This
enables the teacher model to gradually benefit from the student model without
suffering domain shift. We show that AUT demonstrates superiority over all
existing approaches and even Oracle (fully supervised) models by a large
margin. For example, we achieve 50.9% (49.3%) mAP on Foggy Cityscape
(Clipart1K), which is 9.2% (5.2%) and 8.2% (11.0%) higher than previous
state-of-the-art and Oracle, respectively
- Abstract(参考訳): 我々は、オブジェクト検出におけるドメイン適応の問題に取り組み、ソース(監督のあるドメイン)とターゲットドメイン(監督のない関心のあるドメイン)の間に大きなドメインシフトがある。
広く採用されているドメイン適応手法として,自己学習型教師学習フレームワーク(教師モデルから生成した擬似ラベルから学習する学生モデル)が,対象領域において有意な精度向上をもたらした。
しかし、ソースドメインへのバイアスにより教師が生成した低品質な擬似ラベル(例えば偽陽性)の多さに悩まされている。
この問題に対処するため,ドメインシフトに対処するために,相互学習中の対人学習と弱強データ増大を利用した自己学習フレームワークであるAdaptive Unbiased Teacher (AUT)を提案する。
具体的には,学生モデルに特徴レベルの対角訓練を取り入れ,ソースとターゲットドメインから抽出した特徴が同様の統計値を共有することを保証する。
これにより、学生モデルはドメイン不変の特徴をキャプチャできる。
さらに,対象ドメイン上の教師モデルと,両ドメインにおける生徒モデルとの相互学習と弱強弱化を適用した。
これにより、教師モデルは、ドメインシフトに悩まされることなく、徐々に学生モデルの恩恵を受けることができる。
AUTは既存のアプローチやOracle(完全に監督された)モデルよりも大きなマージンで優れていることを示す。
例えば、フォギー・シティスケープ(clipart1k)で50.9% (49.3%) のマップを達成し、これは9.2% (5.2%) と8.2% (11.0%) で、それぞれ以前のstate-of-the-artとoracleよりも高い。
関連論文リスト
- Cross-Domain Policy Adaptation by Capturing Representation Mismatch [53.087413751430255]
強化学習(RL)において、動的に異なる領域に移行できる効果的な政策を学ぶことが不可欠である。
本稿では、ソースドメインとターゲットドメインとの間に動的ミスマッチが存在する場合の動的適応設定について考察する。
対象領域でのみ表現学習を行い、ソース領域からの遷移における表現偏差を測定する。
論文 参考訳(メタデータ) (2024-05-24T09:06:12Z) - Contrastive Mean Teacher for Domain Adaptive Object Detectors [20.06919799819326]
平均教師の自己学習は、オブジェクト検出のための教師なしドメイン適応において強力なパラダイムであるが、低品質の擬似ラベルに苦しむ。
提案するContrastive Mean Teacher (CMT)は、2つのパラダイムが自然に統合され、有益な学習信号が最大化される統一的汎用フレームワークである。
CMTは、Fogdy Cityscapesで51.9%のmAPを達成し、これまでで最高の2.1%のmAPを達成している。
論文 参考訳(メタデータ) (2023-05-04T17:55:17Z) - Focus on Your Target: A Dual Teacher-Student Framework for
Domain-adaptive Semantic Segmentation [210.46684938698485]
意味的セグメンテーションのための教師なしドメイン適応(UDA)について検討する。
対象領域からのトレーニングサンプルの割合を減少・増加させることで,「学習能力」が強化・弱まることがわかった。
本稿では,DTS(Double teacher-student)フレームワークを提案し,双方向学習戦略を取り入れた。
論文 参考訳(メタデータ) (2023-03-16T05:04:10Z) - Multilevel Knowledge Transfer for Cross-Domain Object Detection [26.105283273950942]
ドメインシフトは、特定のドメイン(ソース)でトレーニングされたモデルが、異なるドメイン(ターゲット)のサンプルに露出しても、うまく動作しない、よく知られた問題である。
本研究では,オブジェクト検出タスクにおける領域シフト問題に対処する。
私たちのアプローチは、ソースとターゲットドメイン間のドメインシフトを徐々に削除することに依存しています。
論文 参考訳(メタデータ) (2021-08-02T15:24:40Z) - On Universal Black-Box Domain Adaptation [53.7611757926922]
実践的な展開という観点から,ドメイン適応の最小限の制約条件について検討する。
ソースモデルのインターフェースのみがターゲットドメインで利用可能であり、2つのドメイン間のラベル空間関係が異なることや未知であることが許されている。
対象試料の局所近傍における予測の整合性によって正規化された自己訓練フレームワークに統一することを提案する。
論文 参考訳(メタデータ) (2021-04-10T02:21:09Z) - Prototypical Cross-domain Self-supervised Learning for Few-shot
Unsupervised Domain Adaptation [91.58443042554903]
FUDA(Unsupervised Domain Adaptation)のためのPCS(Prototypical Cross-Domain Self-Supervised Learning)フレームワークを提案する。
PCSは、クロスドメインのローレベルな機能アライメントを行うだけでなく、ドメイン間の共有埋め込み空間におけるセマンティック構造をエンコードおよびアライメントする。
最新の手法と比較して、pcsは、fuda上の異なるドメインペアの平均分類精度を10.5%、office、office-home、visda-2017、domainnetで3.5%、9.0%、13.2%改善している。
論文 参考訳(メタデータ) (2021-03-31T02:07:42Z) - FixBi: Bridging Domain Spaces for Unsupervised Domain Adaptation [26.929772844572213]
我々は、ソースとターゲットドメイン間の複数の中間ドメインを拡大するために、固定比に基づくミックスアップを導入する。
我々は、相補的な特性を持つソース支配モデルとターゲット支配モデルを訓練する。
提案手法により,モデルが対象ドメインに徐々にドメイン知識を伝達する。
論文 参考訳(メタデータ) (2020-11-18T11:58:19Z) - Teacher-Student Consistency For Multi-Source Domain Adaptation [28.576613317253035]
マルチソースドメイン適応(MSDA)では、モデルは複数のソースドメインのサンプルに基づいてトレーニングされ、異なるターゲットドメインの推論に使用される。
本稿では,これらの問題を緩和する新手法であるMulti-source Students Teacher (MUST)を提案する。
論文 参考訳(メタデータ) (2020-10-20T06:17:40Z) - Domain Adaptation for Semantic Parsing [68.81787666086554]
本稿では,ドメイン適応のための新しいセマンティクスを提案する。このセマンティクスでは,ソースドメインと比較して,対象ドメインのアノテーション付きデータがはるかに少ない。
我々のセマンティックな利点は、2段階の粗大なフレームワークから得ており、2段階の異なる正確な処理を提供できる。
ベンチマークデータセットの実験により、我々の手法はいくつかの一般的なドメイン適応戦略より一貫して優れていることが示された。
論文 参考訳(メタデータ) (2020-06-23T14:47:41Z) - Contradistinguisher: A Vapnik's Imperative to Unsupervised Domain
Adaptation [7.538482310185133]
本研究では,コントラスト特徴を学習するContradistinguisherと呼ばれるモデルを提案する。
Office-31とVisDA-2017における最先端のデータセットを、シングルソースとマルチソースの両方で実現しています。
論文 参考訳(メタデータ) (2020-05-25T19:54:38Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。