論文の概要: General Domain Adaptation Through Proportional Progressive Pseudo
Labeling
- arxiv url: http://arxiv.org/abs/2012.13028v1
- Date: Wed, 23 Dec 2020 23:57:00 GMT
- ステータス: 処理完了
- システム内更新日: 2021-04-25 18:13:22.458106
- Title: General Domain Adaptation Through Proportional Progressive Pseudo
Labeling
- Title(参考訳): プロポーショナルプログレッシブな擬似ラベルによる一般ドメイン適応
- Authors: Mohammad J. Hashemi, Eric Keller
- Abstract要約: Proportional Progressive Pseudo Labeling (PPPL)は、より一般的なドメイン適応技術を構築するために、数行のコードで実装できる、シンプルで効果的なテクニックである。
PPPLは、擬似ラベル付きターゲットドメインサンプルでモデルを直接訓練することにより、ターゲットドメイン分類エラーを徐々に低減する。
異常検出、テキスト感情分析、画像分類などのタスクを含む6つの異なるデータセットに関する実験は、PPPLが他のベースラインを破ってよりよく一般化できることを示しています。
- 参考スコア(独自算出の注目度): 3.160070867400839
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Domain adaptation helps transfer the knowledge gained from a labeled source
domain to an unlabeled target domain. During the past few years, different
domain adaptation techniques have been published. One common flaw of these
approaches is that while they might work well on one input type, such as
images, their performance drops when applied to others, such as text or
time-series. In this paper, we introduce Proportional Progressive Pseudo
Labeling (PPPL), a simple, yet effective technique that can be implemented in a
few lines of code to build a more general domain adaptation technique that can
be applied on several different input types. At the beginning of the training
phase, PPPL progressively reduces target domain classification error, by
training the model directly with pseudo-labeled target domain samples, while
excluding samples with more likely wrong pseudo-labels from the training set
and also postponing training on such samples. Experiments on 6 different
datasets that include tasks such as anomaly detection, text sentiment analysis
and image classification demonstrate that PPPL can beat other baselines and
generalize better.
- Abstract(参考訳): ドメイン適応はラベル付きソースドメインから取得した知識をラベルなしターゲットドメインに転送するのに役立つ。
過去数年間、異なるドメイン適応技術が出版されている。
これらのアプローチの一般的な欠点は、画像のような1つの入力タイプでうまく機能するが、テキストや時系列など、他の入力タイプに適用されるとパフォーマンスが低下する点である。
本稿では,いくつかの入力タイプに適用可能な,より汎用的なドメイン適応手法を構築するために,数行のコードで実装可能な,単純かつ効果的な手法であるprogressal progressive pseudo labeling (pppl)を提案する。
トレーニングフェーズの開始時にPPPLは、擬似ラベル付き対象ドメインサンプルでモデルを直接トレーニングし、トレーニングセットからより間違った擬似ラベルを持つサンプルを除外し、そのようなサンプル上でのトレーニングを延期することにより、対象ドメイン分類誤差を段階的に低減する。
異常検出、テキスト感情分析、画像分類などのタスクを含む6つの異なるデータセットの実験は、PPPLが他のベースラインを破り、より一般化できることを示しています。
関連論文リスト
- Domain Adaptation Using Pseudo Labels [16.79672078512152]
ラベル付き対象データがない場合、教師なしのドメイン適応アプローチは、ソースとターゲットドメインの限界分布を整合させようとする。
我々は,複数段階の擬似ラベル修正手法を用いて,対象ドメインの正確なラベルを決定するために事前訓練ネットワークをデプロイする。
複数のデータセットに対する結果から, 複雑な最先端技術と比較して, 簡単な手順の有効性が示された。
論文 参考訳(メタデータ) (2024-02-09T22:15:11Z) - Prototype-Guided Continual Adaptation for Class-Incremental Unsupervised
Domain Adaptation [76.01237757257864]
本稿では,CI-UDA(Class-Incremental Unsupervised Domain Adaptation)と呼ばれる新しい,実用的かつ困難な問題について検討する。
ラベル付けされたソースドメインにはすべてのクラスが含まれているが、ラベル付けされていないターゲットドメインのクラスは順次増加する。
本稿では,2つのソリューション戦略からなるPrototype-Guided Continual Adaptation (ProCA)法を提案する。
論文 参考訳(メタデータ) (2022-07-22T03:22:36Z) - Domain Adaptation via Prompt Learning [39.97105851723885]
Unsupervised Domain Adaption (UDA) は、十分にアノテーションされたソースドメインから学習したモデルをターゲットドメインに適応させることを目的としている。
我々は,Prompt Learning (DAPL) によるドメイン適応という,UDAのための新しいプロンプト学習パラダイムを導入する。
論文 参考訳(メタデータ) (2022-02-14T13:25:46Z) - Cross-domain Contrastive Learning for Unsupervised Domain Adaptation [108.63914324182984]
教師なしドメイン適応(Unsupervised domain adapt、UDA)は、完全にラベル付けされたソースドメインから異なるラベル付けされていないターゲットドメインに学習した知識を転送することを目的としている。
対照的な自己教師型学習に基づいて、トレーニングとテストセット間のドメインの相違を低減するために、機能を整列させます。
論文 参考訳(メタデータ) (2021-06-10T06:32:30Z) - Semi-Supervised Domain Adaptation with Prototypical Alignment and
Consistency Learning [86.6929930921905]
本稿では,いくつかの対象サンプルがラベル付けされていれば,ドメインシフトに対処するのにどの程度役立つか検討する。
ランドマークの可能性を最大限に追求するために、ランドマークから各クラスのターゲットプロトタイプを計算するプロトタイプアライメント(PA)モジュールを組み込んでいます。
具体的には,ラベル付き画像に深刻な摂動を生じさせ,PAを非自明にし,モデル一般化性を促進する。
論文 参考訳(メタデータ) (2021-04-19T08:46:08Z) - Your Classifier can Secretly Suffice Multi-Source Domain Adaptation [72.47706604261992]
マルチソースドメイン適応(MSDA)は、複数のラベル付きソースドメインからラベルなしターゲットドメインへのタスク知識の転送を扱う。
ラベル管理下のドメインを暗黙的に整列させる深層モデルが観察されるMSDAに対して、異なる視点を提示する。
論文 参考訳(メタデータ) (2021-03-20T12:44:13Z) - Surprisingly Simple Semi-Supervised Domain Adaptation with Pretraining
and Consistency [93.89773386634717]
ビジュアルドメイン適応は、異なるソースドメインで利用可能なラベルを使用して、ターゲットのビジュアルドメインからイメージを分類する学習を含む。
いくつかの目標ラベルが存在する場合、(回転予測による)自己スーパービジョンや整合正則化といった単純な手法が、適切な目標分類器を学習するための対角アライメントなしで有効であることを示す。
我々の事前学習と一貫性(PAC)アプローチは、この半教師付きドメイン適応タスクにおいて、複数のデータセットにまたがる複数の対向的なドメインアライメント手法を超越して、技術精度を達成することができる。
論文 参考訳(メタデータ) (2021-01-29T18:40:17Z) - Domain Generalization via Semi-supervised Meta Learning [7.722498348924133]
ラベルのないサンプルを活用するための領域一般化法を提案する。
メタ学習アプローチによってトレーニングされ、入力されたソースドメインと見えないターゲットドメイン間の分散シフトを模倣する。
ベンチマークデータセットによる実験結果から,DGは最先端領域の一般化や半教師付き学習方法よりも優れていた。
論文 参考訳(メタデータ) (2020-09-26T18:05:04Z) - DACS: Domain Adaptation via Cross-domain Mixed Sampling [4.205692673448206]
教師なしのドメイン適応は、あるドメインからラベル付きデータをトレーニングし、同時に関心のあるドメインでラベルなしのデータから学習しようとする。
DACS: クロスドメイン混合サンプリングによるドメイン適応(Domain Adaptation)を提案する。
我々は,GTA5からCityscapesへの最先端の成果を得ることによって,ソリューションの有効性を実証する。
論文 参考訳(メタデータ) (2020-07-17T00:43:11Z) - A Sample Selection Approach for Universal Domain Adaptation [94.80212602202518]
普遍シナリオにおける教師なし領域適応の問題について検討する。
ソースドメインとターゲットドメインの間で共有されるクラスは、一部のみである。
共有クラスのサンプルの同定に有効なスコアリング方式を提案する。
論文 参考訳(メタデータ) (2020-01-14T22:28:43Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。