論文の概要: Towards Principled Disentanglement for Domain Generalization
- arxiv url: http://arxiv.org/abs/2111.13839v1
- Date: Sat, 27 Nov 2021 07:36:32 GMT
- ステータス: 処理完了
- システム内更新日: 2021-11-30 15:40:54.762310
- Title: Towards Principled Disentanglement for Domain Generalization
- Title(参考訳): 領域一般化のための原理的絡み合いに向けて
- Authors: Hanlin Zhang, Yi-Fan Zhang, Weiyang Liu, Adrian Weller, Bernhard
Sch\"olkopf, Eric P. Xing
- Abstract要約: 機械学習モデルの根本的な課題は、アウト・オブ・ディストリビューション(OOD)データへの一般化である。
私たちはまず、DEC(Disentanglement-Constrained Domain Generalization)と呼ばれる制約付き最適化としてOOD一般化問題を定式化する。
この変換に基づいて、結合表現の不絡合と領域一般化のための原始双対アルゴリズムを提案する。
- 参考スコア(独自算出の注目度): 90.9891372499545
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: A fundamental challenge for machine learning models is generalizing to
out-of-distribution (OOD) data, in part due to spurious correlations. To tackle
this challenge, we first formalize the OOD generalization problem as
constrained optimization, called Disentanglement-constrained Domain
Generalization (DDG). We relax this non-trivial constrained optimization to a
tractable form with finite-dimensional parameterization and empirical
approximation. Then a theoretical analysis of the extent to which the above
transformations deviates from the original problem is provided. Based on the
transformation, we propose a primal-dual algorithm for joint representation
disentanglement and domain generalization. In contrast to traditional
approaches based on domain adversarial training and domain labels, DDG jointly
learns semantic and variation encoders for disentanglement, enabling flexible
manipulation and augmentation on training data. DDG aims to learn intrinsic
representations of semantic concepts that are invariant to nuisance factors and
generalizable across different domains. Comprehensive experiments on popular
benchmarks show that DDG can achieve competitive OOD performance and uncover
interpretable salient structures within data.
- Abstract(参考訳): 機械学習モデルの基本的な課題は、分散(ood)データへの一般化である。
この課題に取り組むため,まずood一般化問題を制約付き最適化として定式化し,ddg (disentanglement-constrained domain generalization) と呼ぶ。
この非自明な制約付き最適化を有限次元のパラメータ化と経験的近似を伴う扱いやすい形式に緩和する。
次に、上記の変換が元の問題から逸脱する程度に関する理論的解析を提供する。
この変換に基づいて、結合表現の不絡と領域一般化のための原始双対アルゴリズムを提案する。
ドメインの敵対的トレーニングやドメインラベルに基づく従来のアプローチとは対照的に、DDGは意味的エンコーダと変分エンコーダを共同で学習し、トレーニングデータに対する柔軟な操作と拡張を可能にする。
DDGは、ニュアンス因子に不変であり、異なる領域にわたって一般化可能な意味概念の固有の表現を学習することを目的としている。
一般的なベンチマークに関する包括的な実験は、ddgがデータ内で競合するood性能と解釈可能なサルエント構造を達成できることを示しています。
関連論文リスト
- QT-DoG: Quantization-aware Training for Domain Generalization [58.439816306817306]
領域一般化のための量子化アウェアトレーニング(QT-DoG)を提案する。
QT-DoGは、モデル重みのノイズを誘導することで暗黙の正則化器として量子化を利用する。
我々は、QT-DoGが様々なデータセット、アーキテクチャ、量子化アルゴリズムにまたがって一般化することを実証する。
論文 参考訳(メタデータ) (2024-10-08T13:21:48Z) - Causality-inspired Latent Feature Augmentation for Single Domain Generalization [13.735443005394773]
単一ドメインの一般化(Single-DG)は、単一のトレーニングドメインのみを持つ一般化可能なモデルを開発し、他の未知のターゲットドメインでうまく機能させることを目的としている。
ドメイン・ハングリー構成の下で、ソース・ドメインのカバレッジを拡大し、異なる分布にまたがる固有の因果的特徴を見つける方法がモデルの一般化能力を高める鍵となる。
本稿では、因果学習と介入に基づく特徴レベルの変換のメタ知識を学習することで、単一DGの因果性に着想を得た潜在機能拡張手法を提案する。
論文 参考訳(メタデータ) (2024-06-10T02:42:25Z) - PracticalDG: Perturbation Distillation on Vision-Language Models for Hybrid Domain Generalization [24.413415998529754]
本稿では,Hybrid Domain Generalization (HDG) と,アルゴリズムのロバスト性を評価するために,様々な分割を構成する新しい指標である$H2$-CVを提案する。
提案手法は,複数のデータセット上での最先端アルゴリズムよりも優れており,特にデータ不足に直面する場合のロバスト性の向上に寄与する。
論文 参考訳(メタデータ) (2024-04-13T13:41:13Z) - NormAUG: Normalization-guided Augmentation for Domain Generalization [60.159546669021346]
ディープラーニングのためのNormAUG(Normalization-guided Augmentation)と呼ばれるシンプルで効果的な手法を提案する。
本手法は特徴レベルで多様な情報を導入し,主経路の一般化を改善する。
テスト段階では、アンサンブル戦略を利用して、モデルの補助経路からの予測を組み合わせ、さらなる性能向上を図る。
論文 参考訳(メタデータ) (2023-07-25T13:35:45Z) - Improving Generalization with Domain Convex Game [32.07275105040802]
ドメインの一般化は、複数のソースドメインを持つモデルを学習することで、ディープニューラルネットワークの貧弱な一般化能力を緩和する傾向がある。
DG の古典的な解は領域拡大であり、その一般的な信念は、ソース領域の多様化は分布外一般化に導かれるということである。
モデル一般化と領域の多様性の相関は厳密には正ではなく,ドメイン拡張の有効性を制限している。
論文 参考訳(メタデータ) (2023-03-23T14:27:49Z) - Adversarial and Random Transformations for Robust Domain Adaptation and
Generalization [9.995765847080596]
ランダムデータ拡張による整合性トレーニングを単純に適用することで、ドメイン適応(DA)と一般化(DG)の最先端結果が得られることを示す。
逆変換とランダム変換を組み合わせた手法は、複数のDAおよびDGベンチマークデータセット上で最先端の手法より優れている。
論文 参考訳(メタデータ) (2022-11-13T02:10:13Z) - Trade-off between reconstruction loss and feature alignment for domain
generalization [30.459247038765568]
ドメイン一般化(Domain Generalization、DG)は、いくつかの見知らぬ領域で学習モデルを訓練し、その後、これらの事前学習されたモデルを他の未知の(未知だが関連する)領域に適用することを目的とした、伝達学習の分野である。
未確認ドメインのデータとラベルの両方がトレーニング時に利用できないDGの困難な設定に対処するために、最も一般的なアプローチは、ドメイン不変の表現機能に基づいて分類器を設計することである。
一般的な信念とは対照的に、DGでは不変表現のみに基づく分類器の設計は必要だが不十分であることを示す。
論文 参考訳(メタデータ) (2022-10-26T19:40:25Z) - Variational Disentanglement for Domain Generalization [68.85458536180437]
本稿では,変分拡散ネットワーク(VDN)という効果的なフレームワークを提供することにより,領域一般化の課題に取り組むことを提案する。
VDNは、ドメイン固有の機能とタスク固有の機能を切り離し、タスク固有のフィーチャは、見えないが関連するテストデータにより良い一般化が期待できる。
論文 参考訳(メタデータ) (2021-09-13T09:55:32Z) - Model-Based Domain Generalization [96.84818110323518]
本稿では,モデルベースドメイン一般化問題に対する新しいアプローチを提案する。
我々のアルゴリズムは、最新のwildsベンチマークの最先端手法を最大20ポイント上回った。
論文 参考訳(メタデータ) (2021-02-23T00:59:02Z) - Learning to Learn with Variational Information Bottleneck for Domain
Generalization [128.90691697063616]
ドメイン一般化モデルは、これまで見つからなかった領域に一般化することを学ぶが、予測の不確実性とドメインシフトに悩まされる。
ドメイン一般化のための確率論的メタラーニングモデルを導入し、ドメイン間で共有されるパラメータを分布としてモデル化する。
ドメインシフトに対処するため、メタ変動情報ボトルネックという提案原則を用いてドメイン不変表現を学習し、メタVIBと呼ぶ。
論文 参考訳(メタデータ) (2020-07-15T12:05:52Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。