論文の概要: Prototypical Cross-domain Self-supervised Learning for Few-shot
Unsupervised Domain Adaptation
- arxiv url: http://arxiv.org/abs/2103.16765v1
- Date: Wed, 31 Mar 2021 02:07:42 GMT
- ステータス: 処理完了
- システム内更新日: 2021-04-01 14:36:29.455172
- Title: Prototypical Cross-domain Self-supervised Learning for Few-shot
Unsupervised Domain Adaptation
- Title(参考訳): Few-shot Unsupervised Domain Adaptationのためのプロトタイプ型クロスドメイン自己教師型学習
- Authors: Xiangyu Yue, Zangwei Zheng, Shanghang Zhang, Yang Gao, Trevor Darrell,
Kurt Keutzer, Alberto Sangiovanni Vincentelli
- Abstract要約: FUDA(Unsupervised Domain Adaptation)のためのPCS(Prototypical Cross-Domain Self-Supervised Learning)フレームワークを提案する。
PCSは、クロスドメインのローレベルな機能アライメントを行うだけでなく、ドメイン間の共有埋め込み空間におけるセマンティック構造をエンコードおよびアライメントする。
最新の手法と比較して、pcsは、fuda上の異なるドメインペアの平均分類精度を10.5%、office、office-home、visda-2017、domainnetで3.5%、9.0%、13.2%改善している。
- 参考スコア(独自算出の注目度): 91.58443042554903
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Unsupervised Domain Adaptation (UDA) transfers predictive models from a
fully-labeled source domain to an unlabeled target domain. In some
applications, however, it is expensive even to collect labels in the source
domain, making most previous works impractical. To cope with this problem,
recent work performed instance-wise cross-domain self-supervised learning,
followed by an additional fine-tuning stage. However, the instance-wise
self-supervised learning only learns and aligns low-level discriminative
features. In this paper, we propose an end-to-end Prototypical Cross-domain
Self-Supervised Learning (PCS) framework for Few-shot Unsupervised Domain
Adaptation (FUDA). PCS not only performs cross-domain low-level feature
alignment, but it also encodes and aligns semantic structures in the shared
embedding space across domains. Our framework captures category-wise semantic
structures of the data by in-domain prototypical contrastive learning; and
performs feature alignment through cross-domain prototypical self-supervision.
Compared with state-of-the-art methods, PCS improves the mean classification
accuracy over different domain pairs on FUDA by 10.5%, 3.5%, 9.0%, and 13.2% on
Office, Office-Home, VisDA-2017, and DomainNet, respectively. Our project page
is at http://xyue.io/pcs-fuda/index.html
- Abstract(参考訳): unsupervised domain adaptation (uda) は、完全なラベル付きソースドメインからラベルなしのターゲットドメインへ予測モデルを転送する。
しかし、一部のアプリケーションでは、ソースドメインのラベルを収集してもコストがかかり、以前のほとんどの作品が非現実的になる。
この問題に対処するため、最近の研究はインスタンスワイド・クロスドメイン・セルフ教師付き学習を行い、さらに微調整の段階に入った。
しかし、インスタンス単位の自己教師付き学習は、低レベルの判別的特徴を学習し調整するだけである。
本稿では,Few-shot Unsupervised Domain Adaptation (FUDA)のためのエンドツーエンドのクロスドメイン自己監視学習(PCS)フレームワークを提案する。
pcsはクロスドメインの低レベル機能アライメントを実行するだけでなく、ドメイン間の共有埋め込み空間におけるセマンティクス構造をエンコードし、アライメントする。
本フレームワークは,データのカテゴリー別意味構造をin-domain prototypical contrastive learningにより捉え,クロスドメインprototypepical self-supervisionを通じて特徴のアライメントを行う。
最新の手法と比較して、pcsは、fuda上の異なるドメインペアの平均分類精度を10.5%、office、office-home、visda-2017、domainnetで3.5%、9.0%、13.2%改善している。
私たちのプロジェクトページはhttp://xyue.io/pcs-fuda/index.htmlにあります。
関連論文リスト
- Prototypical Contrast Adaptation for Domain Adaptive Semantic
Segmentation [52.63046674453461]
プロトタイプ・コントラスト適応(Prototypeal Contrast Adaptation, ProCA)は、教師なしドメイン適応セマンティックセマンティックセグメンテーションのための対照的な学習法である。
ProCAはクラス間の情報をクラスワイドプロトタイプに組み込み、適応のためにクラス中心の分散アライメントを採用する。
論文 参考訳(メタデータ) (2022-07-14T04:54:26Z) - Domain Adaptation via Prompt Learning [39.97105851723885]
Unsupervised Domain Adaption (UDA) は、十分にアノテーションされたソースドメインから学習したモデルをターゲットドメインに適応させることを目的としている。
我々は,Prompt Learning (DAPL) によるドメイン適応という,UDAのための新しいプロンプト学習パラダイムを導入する。
論文 参考訳(メタデータ) (2022-02-14T13:25:46Z) - Cross-domain Contrastive Learning for Unsupervised Domain Adaptation [108.63914324182984]
教師なしドメイン適応(Unsupervised domain adapt、UDA)は、完全にラベル付けされたソースドメインから異なるラベル付けされていないターゲットドメインに学習した知識を転送することを目的としている。
対照的な自己教師型学習に基づいて、トレーニングとテストセット間のドメインの相違を低減するために、機能を整列させます。
論文 参考訳(メタデータ) (2021-06-10T06:32:30Z) - Contrastive Learning and Self-Training for Unsupervised Domain
Adaptation in Semantic Segmentation [71.77083272602525]
UDAはラベル付きソースドメインからラベルなしターゲットドメインへの効率的な知識伝達を試みている。
本稿では,領域にまたがるカテゴリ別センタロイドを適応させるコントラスト学習手法を提案する。
提案手法を自己学習で拡張し,メモリ効率の良い時間アンサンブルを用いて一貫性と信頼性の高い擬似ラベルを生成する。
論文 参考訳(メタデータ) (2021-05-05T11:55:53Z) - Classes Matter: A Fine-grained Adversarial Approach to Cross-domain
Semantic Segmentation [95.10255219396109]
クラスレベルの特徴アライメントのための微粒な逆学習戦略を提案する。
ドメイン区別器として機能するだけでなく、クラスレベルでドメインを区別する、きめ細かいドメイン識別器を採用しています。
CCD (Class Center Distance) を用いた解析により, 粒度の細かい対角戦略により, クラスレベルのアライメントが向上することが確認された。
論文 参考訳(メタデータ) (2020-07-17T20:50:59Z) - Contradistinguisher: A Vapnik's Imperative to Unsupervised Domain
Adaptation [7.538482310185133]
本研究では,コントラスト特徴を学習するContradistinguisherと呼ばれるモデルを提案する。
Office-31とVisDA-2017における最先端のデータセットを、シングルソースとマルチソースの両方で実現しています。
論文 参考訳(メタデータ) (2020-05-25T19:54:38Z) - Cross-domain Self-supervised Learning for Domain Adaptation with Few
Source Labels [78.95901454696158]
ドメイン適応のためのクロスドメイン自己教師型学習手法を提案する。
本手法は,ソースラベルが少ない新しいターゲット領域において,ターゲット精度を著しく向上させる。
論文 参考訳(メタデータ) (2020-03-18T15:11:07Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。