論文の概要: Learning to Generate Novel Domains for Domain Generalization
- arxiv url: http://arxiv.org/abs/2007.03304v3
- Date: Tue, 9 Mar 2021 11:50:54 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-12 19:59:51.491358
- Title: Learning to Generate Novel Domains for Domain Generalization
- Title(参考訳): ドメイン一般化のための新しいドメイン生成の学習
- Authors: Kaiyang Zhou, Yongxin Yang, Timothy Hospedales, Tao Xiang
- Abstract要約: 本稿では,未知の領域によく一般化するモデルとして,複数のソースドメインから学習するタスクに焦点を当てる。
我々は、擬似ノーベル領域からデータを合成し、ソースドメインを増強するためにデータジェネレータを用いる。
我々の手法であるL2A-OTは、4つのベンチマークデータセット上で現在最先端のDG手法より優れています。
- 参考スコア(独自算出の注目度): 115.21519842245752
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: This paper focuses on domain generalization (DG), the task of learning from
multiple source domains a model that generalizes well to unseen domains. A main
challenge for DG is that the available source domains often exhibit limited
diversity, hampering the model's ability to learn to generalize. We therefore
employ a data generator to synthesize data from pseudo-novel domains to augment
the source domains. This explicitly increases the diversity of available
training domains and leads to a more generalizable model. To train the
generator, we model the distribution divergence between source and synthesized
pseudo-novel domains using optimal transport, and maximize the divergence. To
ensure that semantics are preserved in the synthesized data, we further impose
cycle-consistency and classification losses on the generator. Our method,
L2A-OT (Learning to Augment by Optimal Transport) outperforms current
state-of-the-art DG methods on four benchmark datasets.
- Abstract(参考訳): 本稿では、複数のソースドメインから学習するタスクであるドメイン一般化(DG)に焦点を当て、未知のドメインによく一般化するモデルを提案する。
DGの主な課題は、利用可能なソースドメインがしばしば限られた多様性を示し、モデルを一般化する能力を妨げることである。
したがって,データ生成器を用いて疑似ノベル領域からのデータを合成し,ソース領域を増強する。
これにより、利用可能なトレーニングドメインの多様性が明示的に増加し、より一般化可能なモデルがもたらされる。
生成器を訓練するために、最適輸送を用いてソースと合成擬似ノーベル領域間の分布のばらつきをモデル化し、そのばらつきを最大化する。
セマンティクスが合成データに保持されることを保証するため、我々はさらに、ジェネレータにサイクル一貫性と分類損失を課す。
我々の手法であるL2A-OT(Learning to Augment by Optimal Transport)は,4つのベンチマークデータセット上で現在最先端のDG法より優れている。
関連論文リスト
- Domain Expansion and Boundary Growth for Open-Set Single-Source Domain Generalization [70.02187124865627]
オープンソースの単一ソースドメインの一般化は、単一のソースドメインを使用して、未知のターゲットドメインに一般化可能な堅牢なモデルを学ぶことを目的としている。
本稿では,領域拡大と境界成長に基づく新しい学習手法を提案する。
提案手法は,いくつかの領域横断画像分類データセットにおいて,大幅な改善と最先端性能を実現することができる。
論文 参考訳(メタデータ) (2024-11-05T09:08:46Z) - Quantitatively Measuring and Contrastively Exploring Heterogeneity for
Domain Generalization [38.50749918578154]
ドメイン一般化タスクのための異種性に基づく二段階コントラスト学習(HTCL)を提案する。
第一段階では、最も異質な分割パターンをコントラストメトリックで生成する。
第2段階では、ドメインやクラスによって示唆される安定した関係を持つペアを再構築することで、実践的なコントラスト学習を採用する。
論文 参考訳(メタデータ) (2023-05-25T09:42:43Z) - Improving Generalization with Domain Convex Game [32.07275105040802]
ドメインの一般化は、複数のソースドメインを持つモデルを学習することで、ディープニューラルネットワークの貧弱な一般化能力を緩和する傾向がある。
DG の古典的な解は領域拡大であり、その一般的な信念は、ソース領域の多様化は分布外一般化に導かれるということである。
モデル一般化と領域の多様性の相関は厳密には正ではなく,ドメイン拡張の有効性を制限している。
論文 参考訳(メタデータ) (2023-03-23T14:27:49Z) - Learning to Augment via Implicit Differentiation for Domain
Generalization [107.9666735637355]
ドメイン一般化(DG)は、複数のソースドメインを活用してドメイン一般化可能なモデルを学ぶことで、この問題を克服することを目的としている。
本稿では,AugLearnと呼ばれる新しい拡張型DG手法を提案する。
AugLearnは、PACS、Office-Home、Digits-DGの3つの標準DGベンチマークで効果を示す。
論文 参考訳(メタデータ) (2022-10-25T18:51:51Z) - Compound Domain Generalization via Meta-Knowledge Encoding [55.22920476224671]
マルチモーダル分布を再正規化するために,スタイル駆動型ドメイン固有正規化(SDNorm)を導入する。
組込み空間における関係モデリングを行うために,プロトタイプ表現,クラスセントロイドを利用する。
4つの標準ドメイン一般化ベンチマークの実験により、COMENはドメインの監督なしに最先端のパフォーマンスを上回ることが判明した。
論文 参考訳(メタデータ) (2022-03-24T11:54:59Z) - Domain Generalization by Mutual-Information Regularization with
Pre-trained Models [20.53534134966378]
ドメイン一般化(DG)は、限られたソースドメインのみを使用して、見えないターゲットドメインに一般化されたモデルを学習することを目的としている。
我々は、任意の可能な領域に一般化されたモデルであるオラクルモデルとの相互情報を用いて、DGの目的を再定式化する。
実験の結果, Oracle (MIRO) による相互情報正規化は, アウト・オブ・ディストリビューション性能を著しく向上させることがわかった。
論文 参考訳(メタデータ) (2022-03-21T08:07:46Z) - Learning to Diversify for Single Domain Generalization [46.35670520201863]
ドメイン一般化(DG)は、複数のソース(トレーニング)ドメインで訓練されたモデルを、分散的に異なるターゲット(テスト)ドメインに一般化することを目的としている。
本稿では、より現実的で困難なシナリオ、すなわちSingle-DG(Single-DG)について考察する。
このシナリオでは、限られた多様性は、目に見えないターゲット領域上のモデル一般化を危険にさらす可能性がある。
そこで本研究では,ソースコードに相補的な多種多様な分布の画像を合成することにより,モデルの一般化能力を高めるためのスタイル補完モジュールを提案する。
論文 参考訳(メタデータ) (2021-08-26T12:04:32Z) - Dual Distribution Alignment Network for Generalizable Person
Re-Identification [174.36157174951603]
ドメイン一般化(DG)は、人物再識別(Re-ID)を扱うための有望なソリューションとして機能する
本稿では、複数のソースドメインの分布を選択的に整列させることにより、この問題に対処するDual Distribution Alignment Network(DDAN)を提案する。
大規模なDomain Generalization Re-ID(DG Re-ID)ベンチマークでDDANを評価した。
論文 参考訳(メタデータ) (2020-07-27T00:08:07Z) - Deep Domain-Adversarial Image Generation for Domain Generalisation [115.21519842245752]
マシンラーニングモデルは通常、ソースデータセットでトレーニングされたり、異なるディストリビューションのターゲットデータセットで評価されたりする際に、ドメインシフトの問題に悩まされる。
この問題を解決するために、ドメイン一般化(DG)手法は、訓練されたモデルが未知のドメインに一般化できるように、複数のソースドメインからのデータを活用することを目的としている。
我々はemphDeep Domain-Adversarial Image Generation (DDAIG)に基づく新しいDG手法を提案する。
論文 参考訳(メタデータ) (2020-03-12T23:17:47Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。