論文の概要: Domain Generalization via Semi-supervised Meta Learning
- arxiv url: http://arxiv.org/abs/2009.12658v2
- Date: Wed, 30 Sep 2020 07:47:30 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-14 08:27:23.947568
- Title: Domain Generalization via Semi-supervised Meta Learning
- Title(参考訳): 半教師付きメタ学習によるドメイン一般化
- Authors: Hossein Sharifi-Noghabi, Hossein Asghari, Nazanin Mehrasa, Martin
Ester
- Abstract要約: ラベルのないサンプルを活用するための領域一般化法を提案する。
メタ学習アプローチによってトレーニングされ、入力されたソースドメインと見えないターゲットドメイン間の分散シフトを模倣する。
ベンチマークデータセットによる実験結果から,DGは最先端領域の一般化や半教師付き学習方法よりも優れていた。
- 参考スコア(独自算出の注目度): 7.722498348924133
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The goal of domain generalization is to learn from multiple source domains to
generalize to unseen target domains under distribution discrepancy. Current
state-of-the-art methods in this area are fully supervised, but for many
real-world problems it is hardly possible to obtain enough labeled samples. In
this paper, we propose the first method of domain generalization to leverage
unlabeled samples, combining of meta learning's episodic training and
semi-supervised learning, called DGSML. DGSML employs an entropy-based
pseudo-labeling approach to assign labels to unlabeled samples and then
utilizes a novel discrepancy loss to ensure that class centroids before and
after labeling unlabeled samples are close to each other. To learn a
domain-invariant representation, it also utilizes a novel alignment loss to
ensure that the distance between pairs of class centroids, computed after
adding the unlabeled samples, is preserved across different domains. DGSML is
trained by a meta learning approach to mimic the distribution shift between the
input source domains and unseen target domains. Experimental results on
benchmark datasets indicate that DGSML outperforms state-of-the-art domain
generalization and semi-supervised learning methods.
- Abstract(参考訳): ドメインの一般化の目標は、複数のソースドメインから学習し、分布の相違の下で未確認のターゲットドメインに一般化することである。
この領域における最先端の手法は完全に監視されているが、実世界の多くの問題では十分なラベル付きサンプルを得ることは不可能である。
本稿では,メタラーニングのエピソード学習と,DGSMLと呼ばれる半教師あり学習を組み合わせた,ラベルなしサンプルを利用するドメイン一般化手法を提案する。
dgsmlは、ラベルのないサンプルにラベルを割り当てるエントロピーベースの擬似ラベルアプローチを採用し、ラベルなしサンプルのラベル付け前後のクラスセントロイドが互いに近接していることを保証するために、新しい不一致損失を利用する。
ドメイン不変表現を学習するために、新しいアライメント損失を利用して、ラベルなしサンプルの追加後に計算された一対のクラスセントロイド間の距離が、異なるドメインにわたって保持されることを保証する。
DGSMLは、入力ソースドメインと見えないターゲットドメイン間の分散シフトを模倣するメタ学習アプローチによって訓練される。
ベンチマークデータセットによる実験結果から、DGSMLは最先端のドメイン一般化と半教師付き学習法より優れていることが示された。
関連論文リスト
- Adaptive Betweenness Clustering for Semi-Supervised Domain Adaptation [108.40945109477886]
分類領域アライメントを実現するために,G-ABC (Adaptive Betweenness Clustering) と呼ばれる新しいSSDA手法を提案する。
提案手法は従来のSSDA手法よりも優れており,提案したG-ABCアルゴリズムの優位性を示している。
論文 参考訳(メタデータ) (2024-01-21T09:57:56Z) - Better Pseudo-label: Joint Domain-aware Label and Dual-classifier for
Semi-supervised Domain Generalization [26.255457629490135]
本稿では,高品質な擬似ラベルを生成するために,共同ドメイン認識ラベルと二重分類器を用いた新しいフレームワークを提案する。
ドメインシフト中の正確な擬似ラベルを予測するために、ドメイン対応擬似ラベルモジュールを開発する。
また、一般化と擬似ラベルの矛盾した目標を考えると、訓練過程において擬似ラベルとドメインの一般化を独立に行うために二重分類器を用いる。
論文 参考訳(メタデータ) (2021-10-10T15:17:27Z) - Cross-domain Contrastive Learning for Unsupervised Domain Adaptation [108.63914324182984]
教師なしドメイン適応(Unsupervised domain adapt、UDA)は、完全にラベル付けされたソースドメインから異なるラベル付けされていないターゲットドメインに学習した知識を転送することを目的としている。
対照的な自己教師型学習に基づいて、トレーニングとテストセット間のドメインの相違を低減するために、機能を整列させます。
論文 参考訳(メタデータ) (2021-06-10T06:32:30Z) - Cross-Domain Gradient Discrepancy Minimization for Unsupervised Domain
Adaptation [22.852237073492894]
Unsupervised Domain Adaptation (UDA) は、よくラベルされたソースドメインから未ラベルのターゲットドメインに学習された知識を一般化することを目的としている。
本稿では,ソースサンプルとターゲットサンプルが生成する勾配の差を明示的に最小化する,クロスドメイン離散化(CGDM)手法を提案する。
対象サンプルの勾配信号を計算するために,クラスタリングに基づく自己教師型学習を通じて,対象の擬似ラベルを求める。
論文 参考訳(メタデータ) (2021-06-08T07:35:40Z) - Unsupervised domain adaptation via double classifiers based on high
confidence pseudo label [8.132250810529873]
Unsupervised Domain Adapt (UDA)は,ラベル付きソースドメインからラベル付きターゲットドメインへのナレッジ転送という問題を解決することを目的とする。
多くのドメイン適応(DA)メソッドは、Centroidを使って異なるドメインの局所分布を整列させ、異なるクラスを整列させる。
この研究は、異なるドメイン間のアライメントを再考し、異なるドメイン間の真のアライメントを達成する方法を研究する。
論文 参考訳(メタデータ) (2021-05-11T00:51:31Z) - Cross-Domain Adaptive Clustering for Semi-Supervised Domain Adaptation [85.6961770631173]
半監視されたドメイン適応では、残りのターゲットサンプルのターゲットドメインガイド機能内のクラスごとのいくつかのラベル付きサンプルが、その周辺に集約される。
この問題に対処するために,クロスドメイン適応クラスタリングという新しいアプローチを提案する。
論文 参考訳(メタデータ) (2021-04-19T16:07:32Z) - Inferring Latent Domains for Unsupervised Deep Domain Adaptation [54.963823285456925]
Unsupervised Domain Adaptation (UDA)は、ラベル付きデータが利用できないターゲットドメインでモデルを学習する問題を指す。
本稿では,視覚データセット中の潜在ドメインを自動的に発見することにより,udaの問題に対処する新しい深層アーキテクチャを提案する。
提案手法を公開ベンチマークで評価し,最先端のドメイン適応手法よりも優れていることを示す。
論文 参考訳(メタデータ) (2021-03-25T14:33:33Z) - Your Classifier can Secretly Suffice Multi-Source Domain Adaptation [72.47706604261992]
マルチソースドメイン適応(MSDA)は、複数のラベル付きソースドメインからラベルなしターゲットドメインへのタスク知識の転送を扱う。
ラベル管理下のドメインを暗黙的に整列させる深層モデルが観察されるMSDAに対して、異なる視点を提示する。
論文 参考訳(メタデータ) (2021-03-20T12:44:13Z) - Discrepancy Minimization in Domain Generalization with Generative
Nearest Neighbors [13.047289562445242]
ドメイン一般化(Domain Generalization, DG)は、複数のソースドメインでトレーニングされた機械学習モデルが、統計の異なるターゲットドメインでうまく一般化できないという、ドメインシフトの問題を扱う。
シフト対象領域の一般化を保証するのに失敗するソースドメイン全体にわたるドメイン不変表現を学習することにより、ドメイン一般化の問題を解決するために、複数のアプローチが提案されている。
本稿では,GNNDM(Generative Nearest Neighbor Based Discrepancy Minimization)法を提案する。
論文 参考訳(メタデータ) (2020-07-28T14:54:25Z) - Alleviating Semantic-level Shift: A Semi-supervised Domain Adaptation
Method for Semantic Segmentation [97.8552697905657]
このタスクの重要な課題は、ソースとターゲットドメイン間のデータ分散の相違を緩和する方法である。
本稿では,グローバルな視点とローカルな視点の両方から分布の整合性を促進できるASS(Alleviating Semantic-level Shift)を提案する。
GTA5、Cityscapes、Synthia、Cityscapesの2つのドメイン適応タスクにASSを適用します。
論文 参考訳(メタデータ) (2020-04-02T03:25:05Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。