論文の概要: MADG: Margin-based Adversarial Learning for Domain Generalization
- arxiv url: http://arxiv.org/abs/2311.08503v1
- Date: Tue, 14 Nov 2023 19:53:09 GMT
- ステータス: 処理完了
- システム内更新日: 2023-11-16 18:29:55.345886
- Title: MADG: Margin-based Adversarial Learning for Domain Generalization
- Title(参考訳): MADG:ドメイン一般化のためのマージンベースの逆学習
- Authors: Aveen Dayal, Vimal K. B., Linga Reddy Cenkeramaddi, C. Krishna Mohan,
Abhinav Kumar and Vineeth N Balasubramanian
- Abstract要約: そこで本稿では,差分損失に基づく離散性尺度に基づく新しい逆学習DGアルゴリズムMADGを提案する。
提案したMADGモデルは,すべてのソースドメインにまたがるドメイン不変の特徴を学習し,敵対的トレーニングを用いて,未知のターゲットドメインによく適応する。
我々は、人気のある実世界のDGデータセット上でMADGモデルを広範囲に実験した。
- 参考スコア(独自算出の注目度): 25.45950080930517
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Domain Generalization (DG) techniques have emerged as a popular approach to
address the challenges of domain shift in Deep Learning (DL), with the goal of
generalizing well to the target domain unseen during the training. In recent
years, numerous methods have been proposed to address the DG setting, among
which one popular approach is the adversarial learning-based methodology. The
main idea behind adversarial DG methods is to learn domain-invariant features
by minimizing a discrepancy metric. However, most adversarial DG methods use
0-1 loss based $\mathcal{H}\Delta\mathcal{H}$ divergence metric. In contrast,
the margin loss-based discrepancy metric has the following advantages: more
informative, tighter, practical, and efficiently optimizable. To mitigate this
gap, this work proposes a novel adversarial learning DG algorithm, MADG,
motivated by a margin loss-based discrepancy metric. The proposed MADG model
learns domain-invariant features across all source domains and uses adversarial
training to generalize well to the unseen target domain. We also provide a
theoretical analysis of the proposed MADG model based on the unseen target
error bound. Specifically, we construct the link between the source and unseen
domains in the real-valued hypothesis space and derive the generalization bound
using margin loss and Rademacher complexity. We extensively experiment with the
MADG model on popular real-world DG datasets, VLCS, PACS, OfficeHome,
DomainNet, and TerraIncognita. We evaluate the proposed algorithm on
DomainBed's benchmark and observe consistent performance across all the
datasets.
- Abstract(参考訳): ドメイン一般化(Domain Generalization, DG)技術は、ディープラーニング(DL)におけるドメインシフトの課題に対処するための一般的なアプローチとして現れ、トレーニング中に見つからないターゲットドメインに適切に一般化することを目的としている。
近年、dg設定に対処するために多くの手法が提案されているが、その中の一つが逆学習に基づく手法である。
逆DG法の背後にある主な考え方は、差分距離を最小化することで、ドメイン不変の特徴を学習することである。
しかし、ほとんどの逆 DG 法は 0-1 ロスベース $\mathcal{H}\Delta\mathcal{H}$ divergence metric を用いる。
対照的に、マージン損失に基づく不一致指標には次のような利点がある: より有益で、より密接で、実用的で、効率的に最適化できる。
このギャップを緩和するため、本研究では、マージン損失に基づく不一致指標に動機づけられた新しい逆学習dgアルゴリズムであるmadgを提案する。
提案したMADGモデルは,すべてのソースドメインにまたがるドメイン不変の特徴を学習し,敵対的トレーニングを用いて,未知のターゲットドメインによく適応する。
また,提案手法を用いた目標誤差境界に基づくmadgモデルの理論的解析を行った。
具体的には、実数値仮説空間におけるソース領域と見えない領域のリンクを構築し、マージン損失とラデマッハ複雑性を用いて一般化を導出する。
我々は、人気のある現実世界のDGデータセット、VLCS、PACS、OfficeHome、DomainNet、TerraIncognitaのMADGモデルを広範囲に実験した。
提案アルゴリズムをDomainBedのベンチマークで評価し,すべてのデータセットで一貫した性能を観測する。
関連論文リスト
- Simple Domain Generalization Methods are Strong Baselines for Open
Domain Generalization [2.5889737226898437]
ドメイン一般化(DG)は、モデルトレーニング中に推論フェーズのターゲットドメインにアクセスできないドメインシフト状況を扱うことを目的としている。
本研究は,既存のDG法を包括的に評価し,Correlation ALignment (CORAL) とMaximum Mean Discrepancy (MMD) の2つの単純なDG法がDAMLと競合していることを示す。
論文 参考訳(メタデータ) (2023-03-31T13:08:31Z) - Domain-Specific Risk Minimization for Out-of-Distribution Generalization [104.17683265084757]
まず、適応性ギャップを明示的に考慮した一般化境界を確立する。
本稿では,目標に対するより良い仮説の選択を導くための効果的なギャップ推定法を提案する。
もう1つの方法は、オンラインターゲットサンプルを用いてモデルパラメータを適応させることにより、ギャップを最小化することである。
論文 参考訳(メタデータ) (2022-08-18T06:42:49Z) - Adaptive Domain Generalization via Online Disagreement Minimization [17.215683606365445]
ドメインの一般化は、モデルを目に見えないターゲットのドメインに安全に転送することを目的としています。
AdaODMは、異なるターゲットドメインに対するテスト時にソースモデルを適応的に修正する。
その結果,AdaODMは未確認領域の一般化能力を安定的に向上することがわかった。
論文 参考訳(メタデータ) (2022-08-03T11:51:11Z) - Implicit Semantic Augmentation for Distance Metric Learning in Domain
Generalization [25.792285194055797]
ドメイン一般化(DG)は、1つ以上の異なるが関連するソースドメインのモデルを、目に見えないターゲットドメインに一般化することを目的としている。
既存のDG手法は、モデルの一般化能力のために、ソースドメインの多様性を促進する。
この研究は、特徴空間における暗黙のセマンティック拡張を適用して、ソースドメインの多様性を捉える。
論文 参考訳(メタデータ) (2022-08-02T11:37:23Z) - On Certifying and Improving Generalization to Unseen Domains [87.00662852876177]
ドメインの一般化は、テスト時に遭遇した見知らぬドメインのパフォーマンスが高いモデルを学ぶことを目的としています。
いくつかのベンチマークデータセットを使用して、DGアルゴリズムを包括的に評価することは困難である。
我々は,任意のDG手法の最悪の性能を効率的に証明できる普遍的な認証フレームワークを提案する。
論文 参考訳(メタデータ) (2022-06-24T16:29:43Z) - Compound Domain Generalization via Meta-Knowledge Encoding [55.22920476224671]
マルチモーダル分布を再正規化するために,スタイル駆動型ドメイン固有正規化(SDNorm)を導入する。
組込み空間における関係モデリングを行うために,プロトタイプ表現,クラスセントロイドを利用する。
4つの標準ドメイン一般化ベンチマークの実験により、COMENはドメインの監督なしに最先端のパフォーマンスを上回ることが判明した。
論文 参考訳(メタデータ) (2022-03-24T11:54:59Z) - META: Mimicking Embedding via oThers' Aggregation for Generalizable
Person Re-identification [68.39849081353704]
Domain Generalizable (DG) Person Re-identification (ReID)は、トレーニング時に対象のドメインデータにアクセスすることなく、見えないドメインをまたいでテストすることを目的としている。
本稿では,DG ReID のための OThers' Aggregation (META) を用いた Mimicking Embedding という新しい手法を提案する。
論文 参考訳(メタデータ) (2021-12-16T08:06:50Z) - Towards Principled Disentanglement for Domain Generalization [90.9891372499545]
機械学習モデルの根本的な課題は、アウト・オブ・ディストリビューション(OOD)データへの一般化である。
私たちはまず、DEC(Disentanglement-Constrained Domain Generalization)と呼ばれる制約付き最適化としてOOD一般化問題を定式化する。
この変換に基づいて、結合表現の不絡合と領域一般化のための原始双対アルゴリズムを提案する。
論文 参考訳(メタデータ) (2021-11-27T07:36:32Z) - Reappraising Domain Generalization in Neural Networks [8.06370138649329]
機械学習アルゴリズムのドメイン一般化(DG)は、複数のトレーニング分布からドメインに依存しない仮説を学習する能力として定義される。
経験的リスク最小化(ERM)ベースラインは,既存のDG手法を一貫して上回っていることがわかった。
そこで我々は,各クラスに対してランダムにドメインを選択して,それをテスト用として保持する,クラスワイズDGの定式化を提案する。
論文 参考訳(メタデータ) (2021-10-15T10:06:40Z) - Model-Based Domain Generalization [96.84818110323518]
本稿では,モデルベースドメイン一般化問題に対する新しいアプローチを提案する。
我々のアルゴリズムは、最新のwildsベンチマークの最先端手法を最大20ポイント上回った。
論文 参考訳(メタデータ) (2021-02-23T00:59:02Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。