論文の概要: Towards Realizing the Value of Labeled Target Samples: a Two-Stage
Approach for Semi-Supervised Domain Adaptation
- arxiv url: http://arxiv.org/abs/2304.10762v1
- Date: Fri, 21 Apr 2023 06:13:23 GMT
- ステータス: 処理完了
- システム内更新日: 2023-04-24 15:38:03.618652
- Title: Towards Realizing the Value of Labeled Target Samples: a Two-Stage
Approach for Semi-Supervised Domain Adaptation
- Title(参考訳): ラベル付きターゲットサンプルの価値の実現に向けて:半教師付きドメイン適応のための2段階アプローチ
- Authors: mengqun Jin, Kai Li, Shuyan Li, Chunming He, Xiu Li
- Abstract要約: Semi-Supervised Domain Adaptation (SSDA)は、広く研究されているUnsupervised Domain Adaptation (UDA)から拡張された最近の研究トピックである。
ラベル付きソースとラベルなしターゲットサンプルを用いて、まずUDAモデルを学習する、UDA問題と半教師付き学習問題としてSSDAを分離することを提案する。
ラベル付きソースサンプルとターゲットサンプルを別々に利用することにより、バイアス問題を緩和することができる。
- 参考スコア(独自算出の注目度): 21.004477294264998
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Semi-Supervised Domain Adaptation (SSDA) is a recently emerging research
topic that extends from the widely-investigated Unsupervised Domain Adaptation
(UDA) by further having a few target samples labeled, i.e., the model is
trained with labeled source samples, unlabeled target samples as well as a few
labeled target samples. Compared with UDA, the key to SSDA lies how to most
effectively utilize the few labeled target samples. Existing SSDA approaches
simply merge the few precious labeled target samples into vast labeled source
samples or further align them, which dilutes the value of labeled target
samples and thus still obtains a biased model. To remedy this, in this paper,
we propose to decouple SSDA as an UDA problem and a semi-supervised learning
problem where we first learn an UDA model using labeled source and unlabeled
target samples and then adapt the learned UDA model in a semi-supervised way
using labeled and unlabeled target samples. By utilizing the labeled source
samples and target samples separately, the bias problem can be well mitigated.
We further propose a consistency learning based mean teacher model to
effectively adapt the learned UDA model using labeled and unlabeled target
samples. Experiments show our approach outperforms existing methods.
- Abstract(参考訳): Semi-Supervised Domain Adaptation (SSDA)は、広く研究されているUnsupervised Domain Adaptation (UDA)から、さらにいくつかのターゲットサンプル、すなわちラベル付きソースサンプル、ラベルなしターゲットサンプル、ラベル付きターゲットサンプルをトレーニングすることで拡張された最近の研究トピックである。
UDAと比較すると、SSDAの鍵は、数少ないラベル付きターゲットサンプルを効果的に活用する方法にある。
既存のsssaアプローチは、少数の貴重なラベル付きターゲットサンプルを巨大なラベル付きソースサンプルにマージするか、さらにそれらを調整するだけで、ラベル付きターゲットサンプルの値を希釈し、バイアス付きモデルを得る。
そこで本研究では,まずラベル付きソースとラベル付きターゲットサンプルを用いてUDAモデルを学習し,ラベル付きターゲットサンプルとラベル付きターゲットサンプルを用いて学習されたUDAモデルを半教師付き方法で適応する,半教師付き学習問題としてSSDAを分離することを提案する。
ラベル付きソースサンプルとターゲットサンプルを別々に利用することにより、バイアス問題を緩和することができる。
さらに,ラベル付きおよびラベルなしのターゲットサンプルを用いて学習したudaモデルを効果的に適応する,一貫性学習に基づく平均教師モデルを提案する。
実験により、我々のアプローチは既存の手法より優れていることが示された。
関連論文リスト
- Learning from Different Samples: A Source-free Framework for Semi-supervised Domain Adaptation [20.172605920901777]
本稿では,異なる対象サンプルを包括的にマイニングするための異なる戦略を利用するフレームワークの設計に焦点をあてる。
そこで本研究では,対象領域における事前学習モデルの半教師付き微調整を実現するための,新しいソースフリーフレームワーク(SOUF)を提案する。
論文 参考訳(メタデータ) (2024-11-11T02:09:32Z) - Not All Samples Should Be Utilized Equally: Towards Understanding and Improving Dataset Distillation [57.6797306341115]
我々は,サンプル難易度の観点から,マッチングに基づくDD手法の理解に向けて最初の一歩を踏み出した。
次に、データプルーニングのニューラルネットワークスケーリング法則をDDに拡張し、これらのマッチングベースの手法を理論的に説明する。
SDC(Sampple Difficulty Correction)アプローチを導入し、より簡単なサンプルを生成して、より高いデータセット品質を実現する。
論文 参考訳(メタデータ) (2024-08-22T15:20:32Z) - Adversarial Semi-Supervised Domain Adaptation for Semantic Segmentation:
A New Role for Labeled Target Samples [7.199108088621308]
我々は、ラベル付き対象データがソースサンプルまたは実際のターゲットサンプルとして振る舞う場合に、新たなトレーニング目標損失を設計する。
提案手法を支援するために,ソースデータとラベル付きターゲットデータを混合し,同じ適応プロセスを適用する補完手法を検討する。
本稿では,GTA5,SynTHIA,Cityscapesのベンチマーク実験を通じて得られた知見を紹介する。
論文 参考訳(メタデータ) (2023-12-12T15:40:22Z) - How Low Can You Go? Surfacing Prototypical In-Distribution Samples for Unsupervised Anomaly Detection [48.30283806131551]
非常に少ないトレーニングサンプルを持つUADが、トレーニングデータセット全体のトレーニングパフォーマンスにすでに一致している - そして、場合によっては、それを超えることもある、ということが、私たちは示しています。
そこで本研究では,UAD性能をさらに向上させるために,原型標本を確実に同定するための教師なし手法を提案する。
論文 参考訳(メタデータ) (2023-12-06T15:30:47Z) - Divide and Contrast: Source-free Domain Adaptation via Adaptive
Contrastive Learning [122.62311703151215]
Divide and Contrast (DaC) は、それぞれの制限を回避しつつ、両方の世界の善良な端を接続することを目的としている。
DaCは、ターゲットデータをソースライクなサンプルとターゲット固有なサンプルに分割する。
さらに、ソースライクなドメインと、メモリバンクベースの最大平均離散性(MMD)損失を用いて、ターゲット固有のサンプルとを整合させて、分散ミスマッチを低減する。
論文 参考訳(メタデータ) (2022-11-12T09:21:49Z) - ReSmooth: Detecting and Utilizing OOD Samples when Training with Data
Augmentation [57.38418881020046]
最近のDA技術は、常に強化トレーニングサンプルの多様性の必要性を満たす。
多様性の高い増分戦略は、通常、アウト・オブ・ディストリビューション(OOD)の増分サンプルを導入する。
ReSmoothは、まず、拡張サンプル中のOODサンプルを検知し、それらを活用するフレームワークである。
論文 参考訳(メタデータ) (2022-05-25T09:29:27Z) - UMAD: Universal Model Adaptation under Domain and Category Shift [138.12678159620248]
Universal Model Adaptation (UMAD)フレームワークは、ソースデータにアクセスせずに両方のUDAシナリオを処理する。
未知のサンプルと未知のサンプルを識別するのに役立つ情報整合性スコアを開発した。
オープンセットおよびオープンパーティルセット UDA シナリオの実験では、UMAD が最先端のデータ依存手法に匹敵する性能を示した。
論文 参考訳(メタデータ) (2021-12-16T01:22:59Z) - Semi-supervised Domain Adaptation via Sample-to-Sample Self-Distillation [30.556465364799948]
半教師付きドメイン適応(Semi-supervised domain adapt, SSDA)とは、学習者がソースドメイン上に大きなラベル付きデータセットが与えられたときに、ラベル付きサンプルの小さなセットだけで新しいドメインに適応することである。
本稿では,サンプル対を用いた自己蒸留を用いて,対象領域にモデルを適応させる,ペアベースのSSDA法を提案する。
論文 参考訳(メタデータ) (2021-11-29T07:13:36Z) - Cross-Domain Gradient Discrepancy Minimization for Unsupervised Domain
Adaptation [22.852237073492894]
Unsupervised Domain Adaptation (UDA) は、よくラベルされたソースドメインから未ラベルのターゲットドメインに学習された知識を一般化することを目的としている。
本稿では,ソースサンプルとターゲットサンプルが生成する勾配の差を明示的に最小化する,クロスドメイン離散化(CGDM)手法を提案する。
対象サンプルの勾配信号を計算するために,クラスタリングに基づく自己教師型学習を通じて,対象の擬似ラベルを求める。
論文 参考訳(メタデータ) (2021-06-08T07:35:40Z) - Semi-Supervised Domain Adaptation with Prototypical Alignment and
Consistency Learning [86.6929930921905]
本稿では,いくつかの対象サンプルがラベル付けされていれば,ドメインシフトに対処するのにどの程度役立つか検討する。
ランドマークの可能性を最大限に追求するために、ランドマークから各クラスのターゲットプロトタイプを計算するプロトタイプアライメント(PA)モジュールを組み込んでいます。
具体的には,ラベル付き画像に深刻な摂動を生じさせ,PAを非自明にし,モデル一般化性を促進する。
論文 参考訳(メタデータ) (2021-04-19T08:46:08Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。