論文の概要: Rethinking Multi-domain Generalization with A General Learning Objective
- arxiv url: http://arxiv.org/abs/2402.18853v1
- Date: Thu, 29 Feb 2024 05:00:30 GMT
- ステータス: 処理完了
- システム内更新日: 2024-03-01 16:02:04.037607
- Title: Rethinking Multi-domain Generalization with A General Learning Objective
- Title(参考訳): 一般学習目標による多領域一般化の再考
- Authors: Zhaorui Tan, Xi Yang, Kaizhu Huang
- Abstract要約: マルチドメイン一般化(mDG)は、トレーニングとテストディストリビューションの相違を最小限にすることを目的としている。
既存のmDG文献には、一般的な学習目標パラダイムが欠けている。
制約緩和に$Y$-mappingを活用することを提案する。
- 参考スコア(独自算出の注目度): 19.28143363034362
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Multi-domain generalization (mDG) is universally aimed to minimize the
discrepancy between training and testing distributions to enhance
marginal-to-label distribution mapping. However, existing mDG literature lacks
a general learning objective paradigm and often imposes constraints on static
target marginal distributions. In this paper, we propose to leverage a
$Y$-mapping to relax the constraint. We rethink the learning objective for mDG
and design a new \textbf{general learning objective} to interpret and analyze
most existing mDG wisdom. This general objective is bifurcated into two
synergistic amis: learning domain-independent conditional features and
maximizing a posterior. Explorations also extend to two effective
regularization terms that incorporate prior information and suppress invalid
causality, alleviating the issues that come with relaxed constraints. We
theoretically contribute an upper bound for the domain alignment of
domain-independent conditional features, disclosing that many previous mDG
endeavors actually \textbf{optimize partially the objective} and thus lead to
limited performance. As such, our study distills a general learning objective
into four practical components, providing a general, robust, and flexible
mechanism to handle complex domain shifts. Extensive empirical results indicate
that the proposed objective with $Y$-mapping leads to substantially better mDG
performance in various downstream tasks, including regression, segmentation,
and classification.
- Abstract(参考訳): マルチドメイン一般化(mDG)は、トレーニングとテストの分散の相違を最小限に抑え、限界-ラベル間分布マッピングを強化することを目的としている。
しかし、既存のmDG文献には一般的な学習目標パラダイムが欠如しており、しばしば静的なターゲット境界分布に制約を課している。
本稿では,制約を緩和するために$y$-mappingを活用することを提案する。
我々はmDGの学習目標を再考し、既存のmDGの知恵を解釈し分析するための新しい「textbf{ general learning objective」を設計する。
この一般的な目的は、ドメイン非依存の条件特徴を学習し、後部を最大化する2つの相乗的アミに分岐する。
探索はまた、事前情報を取り入れ、不正な因果関係を抑える2つの効果的な正規化用語にまで拡張し、緩和された制約によって生じる問題を緩和する。
理論的には、ドメインに依存しない条件付き特徴のドメインアライメントに対して上界を寄与し、多くの以前のmDGの取り組みが実際には目的を部分的に最適化する。
そこで本研究では,複雑な領域シフトを扱う汎用的,堅牢,柔軟なメカニズムを提供する4つの実践的コンポーネントに一般学習目標を割く。
広範な実験結果から,y$-mappingによる提案手法は,レグレッションやセグメンテーション,分類など,下流タスクのmdg性能が大幅に向上することが示唆された。
関連論文リスト
- LFME: A Simple Framework for Learning from Multiple Experts in Domain Generalization [61.16890890570814]
ドメイン一般化(Domain Generalization, DG)手法は、複数のソースドメインからのトレーニングデータを使用することで、目に見えないターゲットドメインにおける優れたパフォーマンスを維持することを目的としている。
この作業では、DGを改善するために、ターゲットモデルをすべてのソースドメインの専門家にすることを目的とした、複数の専門家(LFME)からの学習と呼ばれる、シンプルだが効果的なフレームワークを導入している。
論文 参考訳(メタデータ) (2024-10-22T13:44:10Z) - QT-DoG: Quantization-aware Training for Domain Generalization [58.439816306817306]
領域一般化のための量子化アウェアトレーニング(QT-DoG)を提案する。
QT-DoGは、モデル重みのノイズを誘導することで暗黙の正則化器として量子化を利用する。
我々は、QT-DoGが様々なデータセット、アーキテクチャ、量子化アルゴリズムにまたがって一般化することを実証する。
論文 参考訳(メタデータ) (2024-10-08T13:21:48Z) - MADG: Margin-based Adversarial Learning for Domain Generalization [25.45950080930517]
そこで本稿では,差分損失に基づく離散性尺度に基づく新しい逆学習DGアルゴリズムMADGを提案する。
提案したMADGモデルは,すべてのソースドメインにまたがるドメイン不変の特徴を学習し,敵対的トレーニングを用いて,未知のターゲットドメインによく適応する。
我々は、人気のある実世界のDGデータセット上でMADGモデルを広範囲に実験した。
論文 参考訳(メタデータ) (2023-11-14T19:53:09Z) - Improving Generalization with Domain Convex Game [32.07275105040802]
ドメインの一般化は、複数のソースドメインを持つモデルを学習することで、ディープニューラルネットワークの貧弱な一般化能力を緩和する傾向がある。
DG の古典的な解は領域拡大であり、その一般的な信念は、ソース領域の多様化は分布外一般化に導かれるということである。
モデル一般化と領域の多様性の相関は厳密には正ではなく,ドメイン拡張の有効性を制限している。
論文 参考訳(メタデータ) (2023-03-23T14:27:49Z) - Label-Efficient Domain Generalization via Collaborative Exploration and
Generalization [28.573872986524794]
本稿では,ラベル制限されたソースドメインを用いたモデル一般化を実現するために,ラベル効率のよいドメイン一般化(LEDG)を提案する。
本稿では,活発な探索と半教師付き一般化を共同で最適化する,共同探索・一般化(CEG)と呼ばれる新しいフレームワークを提案する。
論文 参考訳(メタデータ) (2022-08-07T05:34:50Z) - Localized Adversarial Domain Generalization [83.4195658745378]
対数領域の一般化は、領域の一般化に対する一般的なアプローチである。
空間コンパクト性維持(LADG)を用いた局所対向領域の一般化を提案する。
我々はWilds DGベンチマークで包括的な実験を行い、我々のアプローチを検証する。
論文 参考訳(メタデータ) (2022-05-09T08:30:31Z) - Compound Domain Generalization via Meta-Knowledge Encoding [55.22920476224671]
マルチモーダル分布を再正規化するために,スタイル駆動型ドメイン固有正規化(SDNorm)を導入する。
組込み空間における関係モデリングを行うために,プロトタイプ表現,クラスセントロイドを利用する。
4つの標準ドメイン一般化ベンチマークの実験により、COMENはドメインの監督なしに最先端のパフォーマンスを上回ることが判明した。
論文 参考訳(メタデータ) (2022-03-24T11:54:59Z) - META: Mimicking Embedding via oThers' Aggregation for Generalizable
Person Re-identification [68.39849081353704]
Domain Generalizable (DG) Person Re-identification (ReID)は、トレーニング時に対象のドメインデータにアクセスすることなく、見えないドメインをまたいでテストすることを目的としている。
本稿では,DG ReID のための OThers' Aggregation (META) を用いた Mimicking Embedding という新しい手法を提案する。
論文 参考訳(メタデータ) (2021-12-16T08:06:50Z) - Learning Invariant Representations and Risks for Semi-supervised Domain
Adaptation [109.73983088432364]
半教師付きドメイン適応(Semi-DA)の設定の下で不変表現とリスクを同時に学習することを目的とした最初の手法を提案する。
共同で textbfLearning textbfInvariant textbfRepresentations と textbfRisks の LIRR アルゴリズムを導入する。
論文 参考訳(メタデータ) (2020-10-09T15:42:35Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。