論文の概要: Domain-Irrelevant Representation Learning for Unsupervised Domain
Generalization
- arxiv url: http://arxiv.org/abs/2107.06219v1
- Date: Tue, 13 Jul 2021 16:20:50 GMT
- ステータス: 処理完了
- システム内更新日: 2021-07-14 14:47:10.403691
- Title: Domain-Irrelevant Representation Learning for Unsupervised Domain
Generalization
- Title(参考訳): 教師なし領域一般化のためのドメイン非関連表現学習
- Authors: Xingxuan Zhang, Linjun Zhou, Renzhe Xu, Peng Cui, Zheyan Shen, Haoxin
Liu
- Abstract要約: ドメインの一般化(Domain Generalization, DG)は、ソースドメインの集合で訓練されたモデルが、見えないターゲットドメインでより良く一般化することを支援することを目的としている。
ラベルのないデータははるかにアクセスしやすいが、教師なし学習がドメイン間の深いモデルの一般化にどのように役立つかを探究する。
本研究では,未ラベルデータ内の不均一性に対処するために,ドメイン関連無教師学習(DIUL)手法を提案する。
- 参考スコア(独自算出の注目度): 22.980607134596077
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Domain generalization (DG) aims to help models trained on a set of source
domains generalize better on unseen target domains. The performances of current
DG methods largely rely on sufficient labeled data, which however are usually
costly or unavailable. While unlabeled data are far more accessible, we seek to
explore how unsupervised learning can help deep models generalizes across
domains. Specifically, we study a novel generalization problem called
unsupervised domain generalization, which aims to learn generalizable models
with unlabeled data. Furthermore, we propose a Domain-Irrelevant Unsupervised
Learning (DIUL) method to cope with the significant and misleading
heterogeneity within unlabeled data and severe distribution shifts between
source and target data. Surprisingly we observe that DIUL can not only
counterbalance the scarcity of labeled data but also further strengthen the
generalization ability of models when the labeled data are sufficient. As a
pretraining approach, DIUL shows superior to ImageNet pretraining protocol even
when the available data are unlabeled and of a greatly smaller amount compared
to ImageNet. Extensive experiments clearly demonstrate the effectiveness of our
method compared with state-of-the-art unsupervised learning counterparts.
- Abstract(参考訳): ドメインの一般化(Domain Generalization, DG)は、ソースドメインの集合で訓練されたモデルが、見えないターゲットドメインでより良く一般化することを支援することを目的としている。
現在のDGメソッドのパフォーマンスは、主に十分なラベル付きデータに依存しているが、通常はコストがかかるか利用できない。
ラベルのないデータははるかにアクセスしやすいが、教師なし学習がドメイン間の深いモデルの一般化にどのように役立つかを探究する。
具体的には,教師なし領域一般化(unsupervised domain generalization)という,ラベルなしデータを用いた一般化モデルの学習を目的とした新しい一般化問題について検討する。
さらに,ラベルなしデータにおける重要かつ誤解を招く異質性と,ソースデータとターゲットデータ間の重大な分散シフトに対処するための,ドメイン非関連非教師付き学習(diul)手法を提案する。
驚くべきことに、ラベル付きデータの不足を克服するだけでなく、ラベル付きデータが十分であればモデルの一般化能力を高めることができる。
事前トレーニングアプローチとして、利用可能なデータがラベル付けされていない場合や、ImageNetに比べてはるかに少ない場合であっても、DIULはImageNet事前トレーニングプロトコルよりも優れている。
本手法の有効性を,最先端の教師なし学習方法と比較して明らかに実証した。
関連論文リスト
- Disentangling Masked Autoencoders for Unsupervised Domain Generalization [57.56744870106124]
教師なしの領域一般化は急速に注目されているが、まだ十分に研究されていない。
Disentangled Masked Auto (DisMAE) は、本質的な特徴を忠実に示す不整合表現を発見することを目的としている。
DisMAEは、セマンティックで軽量な変分エンコーダを備えた非対称なデュアルブランチアーキテクチャを共同で訓練する。
論文 参考訳(メタデータ) (2024-07-10T11:11:36Z) - Overcoming Data Inequality across Domains with Semi-Supervised Domain
Generalization [4.921899151930171]
本稿では,ドメイン認識型プロトタイプを用いて,ドメイン不変性を効果的に学習できる新しいアルゴリズムProUDを提案する。
3つの異なるベンチマークデータセットに対する実験により, ProUDの有効性が示された。
論文 参考訳(メタデータ) (2024-03-08T10:49:37Z) - Improving Pseudo-labelling and Enhancing Robustness for Semi-Supervised Domain Generalization [7.9776163947539755]
自動化医療のような現実のアプリケーションに不可欠な半スーパービジョン・ドメイン・ジェネリゼーションの問題について検討する。
モデル平均化を用いた新しい不確実性誘導擬似ラベリングを用いたSSDG手法を提案する。
我々の不確実性誘導型擬似ラベリング(UPL)は、モデル不確実性を利用して擬似ラベリング選択を改善する。
論文 参考訳(メタデータ) (2024-01-25T05:55:44Z) - When Neural Networks Fail to Generalize? A Model Sensitivity Perspective [82.36758565781153]
ドメイン一般化 (Domain Generalization, DG) は、異なる分布の下で見えないドメインでうまく機能するようにモデルを訓練することを目的としている。
本稿では,より現実的で,より困難なシナリオである単一領域一般化(Single-DG)について考察する。
我々は「モデル感度」と命名する一般化と強く相関するモデルの性質を経験的に確認する。
本稿では、高感度の周波数をターゲットとした拡張画像を生成するために、スペクトル逆データ拡張(SADA)の新たな戦略を提案する。
論文 参考訳(メタデータ) (2022-12-01T20:15:15Z) - On-Device Domain Generalization [93.79736882489982]
ドメインの一般化はデバイス上の機械学習アプリケーションにとって重要である。
知識蒸留がこの問題の解決の有力な候補であることがわかった。
本研究では,教師が配布外データをどのように扱えるかを学生に教えることを目的とした,配布外知識蒸留(OKD)という簡単なアイデアを提案する。
論文 参考訳(メタデータ) (2022-09-15T17:59:31Z) - On Certifying and Improving Generalization to Unseen Domains [87.00662852876177]
ドメインの一般化は、テスト時に遭遇した見知らぬドメインのパフォーマンスが高いモデルを学ぶことを目的としています。
いくつかのベンチマークデータセットを使用して、DGアルゴリズムを包括的に評価することは困難である。
我々は,任意のDG手法の最悪の性能を効率的に証明できる普遍的な認証フレームワークを提案する。
論文 参考訳(メタデータ) (2022-06-24T16:29:43Z) - Towards Data-Free Domain Generalization [12.269045654957765]
異なるソースデータドメインでトレーニングされたモデルに含まれる知識は、どのようにして単一のモデルにマージされるのか?
以前のドメインの一般化手法は、典型的にはソースドメインデータの使用に依存しており、プライベートな分散データには適さない。
DeKANは、利用可能な教師モデルからドメイン固有の知識を抽出し、融合し、ドメインシフトに頑健な学生モデルに変換するアプローチである。
論文 参考訳(メタデータ) (2021-10-09T11:44:05Z) - Domain-Specific Bias Filtering for Single Labeled Domain Generalization [19.679447374738498]
ドメインの一般化は、複数のラベル付きソースデータセットを使用して、目に見えないターゲットドメインに対して一般化可能なモデルをトレーニングする。
高価なアノテーションコストのため、すべてのソースデータのラベル付けの要件は、現実世界のアプリケーションでは満たされない。
本稿では,ドメイン固有バイアスをラベル付きソースデータでフィルタするDBF (Domain-Specific Bias Filtering) を提案する。
論文 参考訳(メタデータ) (2021-10-02T05:08:01Z) - Inferring Latent Domains for Unsupervised Deep Domain Adaptation [54.963823285456925]
Unsupervised Domain Adaptation (UDA)は、ラベル付きデータが利用できないターゲットドメインでモデルを学習する問題を指す。
本稿では,視覚データセット中の潜在ドメインを自動的に発見することにより,udaの問題に対処する新しい深層アーキテクチャを提案する。
提案手法を公開ベンチマークで評価し,最先端のドメイン適応手法よりも優れていることを示す。
論文 参考訳(メタデータ) (2021-03-25T14:33:33Z) - A Review of Single-Source Deep Unsupervised Visual Domain Adaptation [81.07994783143533]
大規模ラベル付きトレーニングデータセットにより、ディープニューラルネットワークは、幅広いベンチマークビジョンタスクを拡張できるようになった。
多くのアプリケーションにおいて、大量のラベル付きデータを取得するのは非常に高価で時間を要する。
限られたラベル付きトレーニングデータに対処するため、大規模ラベル付きソースドメインでトレーニングされたモデルを、疎ラベルまたは未ラベルのターゲットドメインに直接適用しようと試みている人も多い。
論文 参考訳(メタデータ) (2020-09-01T00:06:50Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。