論文の概要: Domain Adaptation via Prompt Learning
- arxiv url: http://arxiv.org/abs/2202.06687v1
- Date: Mon, 14 Feb 2022 13:25:46 GMT
- ステータス: 処理完了
- システム内更新日: 2022-02-15 17:18:50.978303
- Title: Domain Adaptation via Prompt Learning
- Title(参考訳): プロンプト学習によるドメイン適応
- Authors: Chunjiang Ge and Rui Huang and Mixue Xie and Zihang Lai and Shiji Song
and Shuang Li and Gao Huang
- Abstract要約: Unsupervised Domain Adaption (UDA) は、十分にアノテーションされたソースドメインから学習したモデルをターゲットドメインに適応させることを目的としている。
我々は,Prompt Learning (DAPL) によるドメイン適応という,UDAのための新しいプロンプト学習パラダイムを導入する。
- 参考スコア(独自算出の注目度): 39.97105851723885
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Unsupervised domain adaption (UDA) aims to adapt models learned from a
well-annotated source domain to a target domain, where only unlabeled samples
are given. Current UDA approaches learn domain-invariant features by aligning
source and target feature spaces. Such alignments are imposed by constraints
such as statistical discrepancy minimization or adversarial training. However,
these constraints could lead to the distortion of semantic feature structures
and loss of class discriminability. In this paper, we introduce a novel prompt
learning paradigm for UDA, named Domain Adaptation via Prompt Learning (DAPL).
In contrast to prior works, our approach makes use of pre-trained
vision-language models and optimizes only very few parameters. The main idea is
to embed domain information into prompts, a form of representations generated
from natural language, which is then used to perform classification. This
domain information is shared only by images from the same domain, thereby
dynamically adapting the classifier according to each domain. By adopting this
paradigm, we show that our model not only outperforms previous methods on
several cross-domain benchmarks but also is very efficient to train and easy to
implement.
- Abstract(参考訳): Unsupervised Domain Adaption (UDA) は、十分にアノテーションされたソースドメインから学習したモデルをターゲットドメインに適応させることを目的としている。
現在のUDAアプローチは、ソースとターゲットの特徴空間を調整することで、ドメイン不変の機能を学ぶ。
このようなアライメントは、統計的不一致の最小化や敵の訓練といった制約によって課される。
しかし、これらの制約は意味的特徴構造の歪みとクラス識別性の喪失につながる可能性がある。
本稿では,Prompt Learning(DAPL)によるドメイン適応(Domain Adaptation)という,UDAのための新しいプロンプト学習パラダイムを提案する。
先行研究とは対照的に,本手法では事前学習した視覚言語モデルを用いてパラメータを最適化する。
主なアイデアは、自然言語から生成された表現の形式であるプロンプトにドメイン情報を埋め込むことである。
このドメイン情報は、同一ドメインの画像のみによって共有され、各ドメインに応じて分類器を動的に適応させる。
このパラダイムを採用することで、我々のモデルは複数のクロスドメインベンチマークで以前のメソッドを上回るだけでなく、トレーニングや実装の容易さにも優れています。
関連論文リスト
- Continual Unsupervised Domain Adaptation for Semantic Segmentation using
a Class-Specific Transfer [9.46677024179954]
セグメンテーションモデルは 目に見えない領域に一般化しません
2つのクラス条件のAdaIN層を組み込んだ軽量なスタイル転送フレームワークを提案する。
合成シーケンスに対する我々のアプローチを広く検証し、さらに実領域からなる挑戦的なシーケンスを提案する。
論文 参考訳(メタデータ) (2022-08-12T21:30:49Z) - Prototypical Contrast Adaptation for Domain Adaptive Semantic
Segmentation [52.63046674453461]
プロトタイプ・コントラスト適応(Prototypeal Contrast Adaptation, ProCA)は、教師なしドメイン適応セマンティックセマンティックセグメンテーションのための対照的な学習法である。
ProCAはクラス間の情報をクラスワイドプロトタイプに組み込み、適応のためにクラス中心の分散アライメントを採用する。
論文 参考訳(メタデータ) (2022-07-14T04:54:26Z) - Dynamic Instance Domain Adaptation [109.53575039217094]
教師なしのドメイン適応に関するほとんどの研究は、各ドメインのトレーニングサンプルがドメインラベルを伴っていると仮定している。
適応的な畳み込みカーネルを持つ動的ニューラルネットワークを開発し、各インスタンスにドメインに依存しない深い特徴を適応させるために、インスタンス適応残差を生成する。
我々のモデルはDIDA-Netと呼ばれ、複数の一般的な単一ソースおよび複数ソースのUDAデータセット上で最先端のパフォーマンスを達成する。
論文 参考訳(メタデータ) (2022-03-09T20:05:54Z) - Cross-domain Contrastive Learning for Unsupervised Domain Adaptation [108.63914324182984]
教師なしドメイン適応(Unsupervised domain adapt、UDA)は、完全にラベル付けされたソースドメインから異なるラベル付けされていないターゲットドメインに学習した知識を転送することを目的としている。
対照的な自己教師型学習に基づいて、トレーニングとテストセット間のドメインの相違を低減するために、機能を整列させます。
論文 参考訳(メタデータ) (2021-06-10T06:32:30Z) - Contrastive Learning and Self-Training for Unsupervised Domain
Adaptation in Semantic Segmentation [71.77083272602525]
UDAはラベル付きソースドメインからラベルなしターゲットドメインへの効率的な知識伝達を試みている。
本稿では,領域にまたがるカテゴリ別センタロイドを適応させるコントラスト学習手法を提案する。
提案手法を自己学習で拡張し,メモリ効率の良い時間アンサンブルを用いて一貫性と信頼性の高い擬似ラベルを生成する。
論文 参考訳(メタデータ) (2021-05-05T11:55:53Z) - On Universal Black-Box Domain Adaptation [53.7611757926922]
実践的な展開という観点から,ドメイン適応の最小限の制約条件について検討する。
ソースモデルのインターフェースのみがターゲットドメインで利用可能であり、2つのドメイン間のラベル空間関係が異なることや未知であることが許されている。
対象試料の局所近傍における予測の整合性によって正規化された自己訓練フレームワークに統一することを提案する。
論文 参考訳(メタデータ) (2021-04-10T02:21:09Z) - Prototypical Cross-domain Self-supervised Learning for Few-shot
Unsupervised Domain Adaptation [91.58443042554903]
FUDA(Unsupervised Domain Adaptation)のためのPCS(Prototypical Cross-Domain Self-Supervised Learning)フレームワークを提案する。
PCSは、クロスドメインのローレベルな機能アライメントを行うだけでなく、ドメイン間の共有埋め込み空間におけるセマンティック構造をエンコードおよびアライメントする。
最新の手法と比較して、pcsは、fuda上の異なるドメインペアの平均分類精度を10.5%、office、office-home、visda-2017、domainnetで3.5%、9.0%、13.2%改善している。
論文 参考訳(メタデータ) (2021-03-31T02:07:42Z) - Contradistinguisher: A Vapnik's Imperative to Unsupervised Domain
Adaptation [7.538482310185133]
本研究では,コントラスト特徴を学習するContradistinguisherと呼ばれるモデルを提案する。
Office-31とVisDA-2017における最先端のデータセットを、シングルソースとマルチソースの両方で実現しています。
論文 参考訳(メタデータ) (2020-05-25T19:54:38Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。