論文の概要: Cross-domain Self-supervised Learning for Domain Adaptation with Few
Source Labels
- arxiv url: http://arxiv.org/abs/2003.08264v1
- Date: Wed, 18 Mar 2020 15:11:07 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-22 12:40:27.082963
- Title: Cross-domain Self-supervised Learning for Domain Adaptation with Few
Source Labels
- Title(参考訳): 少数音源ラベルを用いたドメイン適応のためのクロスドメイン自己教師型学習
- Authors: Donghyun Kim, Kuniaki Saito, Tae-Hyun Oh, Bryan A. Plummer, Stan
Sclaroff, and Kate Saenko
- Abstract要約: ドメイン適応のためのクロスドメイン自己教師型学習手法を提案する。
本手法は,ソースラベルが少ない新しいターゲット領域において,ターゲット精度を著しく向上させる。
- 参考スコア(独自算出の注目度): 78.95901454696158
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Existing unsupervised domain adaptation methods aim to transfer knowledge
from a label-rich source domain to an unlabeled target domain. However,
obtaining labels for some source domains may be very expensive, making complete
labeling as used in prior work impractical. In this work, we investigate a new
domain adaptation scenario with sparsely labeled source data, where only a few
examples in the source domain have been labeled, while the target domain is
unlabeled. We show that when labeled source examples are limited, existing
methods often fail to learn discriminative features applicable for both source
and target domains. We propose a novel Cross-Domain Self-supervised (CDS)
learning approach for domain adaptation, which learns features that are not
only domain-invariant but also class-discriminative. Our self-supervised
learning method captures apparent visual similarity with in-domain
self-supervision in a domain adaptive manner and performs cross-domain feature
matching with across-domain self-supervision. In extensive experiments with
three standard benchmark datasets, our method significantly boosts performance
of target accuracy in the new target domain with few source labels and is even
helpful on classical domain adaptation scenarios.
- Abstract(参考訳): 既存の教師なしドメイン適応メソッドは、ラベル豊富なソースドメインからラベルなしのターゲットドメインに知識を転送することを目的としている。
しかしながら、一部のソースドメインのラベルを取得することは非常に高価であり、以前の作業で使われるような完全なラベル付けは実用的ではない。
本研究では,対象領域がラベル付けされていない場合,ソース領域内のいくつかの例のみをラベル付けする,スパースラベル付きソースデータを用いた新しいドメイン適応シナリオについて検討する。
ラベル付きソースの例が限られている場合、既存のメソッドはソースドメインとターゲットドメインの両方に適用可能な差別的特徴を学習できないことが多い。
本稿では,ドメイン不変性だけでなく,クラス識別性も備えた特徴を学習する,ドメイン適応のための新しいクロスドメイン自己教師型学習手法を提案する。
本手法は,ドメイン内自己スーパービジョンと視覚的類似性をドメイン適応的に捉え,ドメイン間自己スーパービジョンと整合するクロスドメイン機能を実行する。
3つの標準ベンチマークデータセットによる広範な実験において、本手法は、ソースラベルが少ない新しいターゲット領域におけるターゲット精度を著しく向上させ、古典的なドメイン適応シナリオにおいてさらに有用である。
関連論文リスト
- DomainInv: Domain Invariant Fine Tuning and Adversarial Label Correction
For QA Domain Adaptation [27.661609140918916]
既存の質問回答システム(QA)は、目に見えない領域やドメイン外分布からの質問に答える能力によって制限される。
最も重要なことは、既存のQAドメイン適応手法は、合成データを生成するか、ターゲットのドメインデータに擬似ラベルを付けたものである。
本稿では,未ラベル対象領域に対する教師なし領域適応を,ソースドメインの監督を引き続き用いながら,ソースドメイン近傍のターゲット表現を転送することで提案する。
論文 参考訳(メタデータ) (2023-05-04T18:13:17Z) - Discovering Domain Disentanglement for Generalized Multi-source Domain
Adaptation [48.02978226737235]
典型的なマルチソースドメイン適応(MSDA)アプローチは、ラベル付きソースドメインから学習した知識をラベル付きターゲットドメインに転送することを目的としている。
本稿では、各インスタンスのドメイン表現と意味的特徴を分割し、次元的独立性を奨励する変動型ドメイン・アンタングルメント(VDD)フレームワークを提案する。
論文 参考訳(メタデータ) (2022-07-11T04:33:08Z) - CA-UDA: Class-Aware Unsupervised Domain Adaptation with Optimal
Assignment and Pseudo-Label Refinement [84.10513481953583]
教師なしドメイン適応(Unsupervised domain adapt, UDA)は、ターゲットデータに欠けているラベルのサロゲートとして、優れた擬似ラベルの選択に焦点を当てる。
ソースとターゲットドメインの共有ネットワークが通常、擬似ラベルの選択に使用されるため、擬似ラベルを劣化させるソースドメインバイアスは依然として存在する。
本稿では, 擬似ラベルの品質向上のためのCA-UDAを提案し, 最適課題, 擬似ラベル改善戦略, クラス対応ドメインアライメントを提案する。
論文 参考訳(メタデータ) (2022-05-26T18:45:04Z) - Cross-domain Contrastive Learning for Unsupervised Domain Adaptation [108.63914324182984]
教師なしドメイン適応(Unsupervised domain adapt、UDA)は、完全にラベル付けされたソースドメインから異なるラベル付けされていないターゲットドメインに学習した知識を転送することを目的としている。
対照的な自己教師型学習に基づいて、トレーニングとテストセット間のドメインの相違を低減するために、機能を整列させます。
論文 参考訳(メタデータ) (2021-06-10T06:32:30Z) - Prototypical Cross-domain Self-supervised Learning for Few-shot
Unsupervised Domain Adaptation [91.58443042554903]
FUDA(Unsupervised Domain Adaptation)のためのPCS(Prototypical Cross-Domain Self-Supervised Learning)フレームワークを提案する。
PCSは、クロスドメインのローレベルな機能アライメントを行うだけでなく、ドメイン間の共有埋め込み空間におけるセマンティック構造をエンコードおよびアライメントする。
最新の手法と比較して、pcsは、fuda上の異なるドメインペアの平均分類精度を10.5%、office、office-home、visda-2017、domainnetで3.5%、9.0%、13.2%改善している。
論文 参考訳(メタデータ) (2021-03-31T02:07:42Z) - Discriminative Cross-Domain Feature Learning for Partial Domain
Adaptation [70.45936509510528]
部分的なドメイン適応は、より大きく多様なソースドメインからの知識を、より少ないクラス数でより小さなターゲットドメインに適応させることを目的としています。
ドメイン適応の最近の実践は、ターゲットドメインの擬似ラベルを組み込むことで、効果的な特徴を抽出する。
ターゲットデータを少数のソースデータのみにアライメントすることが不可欠である。
論文 参考訳(メタデータ) (2020-08-26T03:18:53Z) - Contradistinguisher: A Vapnik's Imperative to Unsupervised Domain
Adaptation [7.538482310185133]
本研究では,コントラスト特徴を学習するContradistinguisherと呼ばれるモデルを提案する。
Office-31とVisDA-2017における最先端のデータセットを、シングルソースとマルチソースの両方で実現しています。
論文 参考訳(メタデータ) (2020-05-25T19:54:38Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。