論文の概要: Learning Gradient-based Mixup towards Flatter Minima for Domain
Generalization
- arxiv url: http://arxiv.org/abs/2209.14742v1
- Date: Thu, 29 Sep 2022 13:01:14 GMT
- ステータス: 処理完了
- システム内更新日: 2022-09-30 17:38:40.596454
- Title: Learning Gradient-based Mixup towards Flatter Minima for Domain
Generalization
- Title(参考訳): ドメイン一般化のためのフラッターミニマへのグラディエントベース混合学習
- Authors: Danni Peng, Sinno Jialin Pan
- Abstract要約: 我々はFGMix(Flatness-aware Gradient-based Mixup)という新しい領域一般化アルゴリズムを開発した。
FGMixは、より良い一般化のためにフラットなミニマに向けて類似性関数を学ぶ。
DomainBedベンチマークでは、FGMixの様々な設計の有効性を検証し、他のDGアルゴリズムよりも優れていることを示す。
- 参考スコア(独自算出の注目度): 44.04047359057987
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: To address the distribution shifts between training and test data, domain
generalization (DG) leverages multiple source domains to learn a model that
generalizes well to unseen domains. However, existing DG methods generally
suffer from overfitting to the source domains, partly due to the limited
coverage of the expected region in feature space. Motivated by this, we propose
to perform mixup with data interpolation and extrapolation to cover the
potential unseen regions. To prevent the detrimental effects of unconstrained
extrapolation, we carefully design a policy to generate the instance weights,
named Flatness-aware Gradient-based Mixup (FGMix). The policy employs a
gradient-based similarity to assign greater weights to instances that carry
more invariant information, and learns the similarity function towards flatter
minima for better generalization. On the DomainBed benchmark, we validate the
efficacy of various designs of FGMix and demonstrate its superiority over other
DG algorithms.
- Abstract(参考訳): トレーニングデータとテストデータの分散シフトに対処するために、ドメイン一般化(DG)は複数のソースドメインを活用して、目に見えないドメインによく一般化するモデルを学ぶ。
しかし,既存のDG手法は,機能領域における期待領域の範囲が限られているため,ソース領域へのオーバーフィットに悩まされることが多い。
そこで本研究では,データ補間と外挿を併用して,潜在的な未知領域をカバーすることを提案する。
制約のない外挿による有害な影響を防止するため,FGMix(Flatness-aware Gradient-based Mixup)という,インスタンス重みの生成ポリシーを慎重に設計した。
このポリシーは勾配に基づく類似性を用いて、より不変な情報を持つインスタンスにより大きな重みを割り当て、より一般化するためにフラットなミニマへの類似性関数を学ぶ。
DomainBedベンチマークでは、FGMixの様々な設計の有効性を検証し、他のDGアルゴリズムよりも優れていることを示す。
関連論文リスト
- Unsupervised Domain Adaptation Using Compact Internal Representations [23.871860648919593]
教師なしドメイン適応に対処する技術では、ソースとターゲットドメインの両方からデータポイントを共有埋め込み空間にマッピングする。
我々は、ソース領域の内部分布をよりコンパクトにする追加の手法を開発する。
組込み空間における異なるクラスのデータ表現間のマージンを増大させることで、UDAのモデル性能を向上させることができることを示す。
論文 参考訳(メタデータ) (2024-01-14T05:53:33Z) - FIXED: Frustratingly Easy Domain Generalization with Mixup [53.782029033068675]
ドメイン一般化(Domain Generalization, DG)は、複数のトレーニングドメインから一般化可能なモデルを学ぶことを目的としている。
一般的な戦略は、Mixupcitezhang 2018mixupのようなメソッドによる一般化のためにトレーニングデータを拡張することである。
我々は、MixupベースのDG、すなわちドメイン不変の特徴mIXup(FIX)の簡易かつ効果的な拡張を提案する。
提案手法は,9つの最先端手法よりも優れており,試験精度の面では,ベースラインの平均6.5%を上回っている。
論文 参考訳(メタデータ) (2022-11-07T09:38:34Z) - Adaptive Domain Generalization via Online Disagreement Minimization [17.215683606365445]
ドメインの一般化は、モデルを目に見えないターゲットのドメインに安全に転送することを目的としています。
AdaODMは、異なるターゲットドメインに対するテスト時にソースモデルを適応的に修正する。
その結果,AdaODMは未確認領域の一般化能力を安定的に向上することがわかった。
論文 参考訳(メタデータ) (2022-08-03T11:51:11Z) - META: Mimicking Embedding via oThers' Aggregation for Generalizable
Person Re-identification [68.39849081353704]
Domain Generalizable (DG) Person Re-identification (ReID)は、トレーニング時に対象のドメインデータにアクセスすることなく、見えないドメインをまたいでテストすることを目的としている。
本稿では,DG ReID のための OThers' Aggregation (META) を用いた Mimicking Embedding という新しい手法を提案する。
論文 参考訳(メタデータ) (2021-12-16T08:06:50Z) - Discriminative Domain-Invariant Adversarial Network for Deep Domain
Generalization [33.84004077585957]
本稿では,ドメイン一般化のための識別型ドメイン不変逆数ネットワーク(DDIAN)を提案する。
DDIANは、最先端のドメイン一般化アプローチと比較して、トレーニング中の未確認対象データに対するより良い予測を実現している。
論文 参考訳(メタデータ) (2021-08-20T04:24:12Z) - Domain Generalization via Gradient Surgery [5.38147998080533]
現実のアプリケーションでは、マシンラーニングモデルは、トレーニングとテストドメイン間のデータ分散の変化があるシナリオに直面します。
本研究では,ドメインシフトのシナリオに現れる矛盾する勾配を特徴付けるとともに,新たな勾配合意戦略を考案する。
論文 参考訳(メタデータ) (2021-08-03T16:49:25Z) - Generalizable Representation Learning for Mixture Domain Face
Anti-Spoofing [53.82826073959756]
ドメイン一般化(DG)に基づく対スプーフィングアプローチは、予期せぬシナリオの堅牢性のために注目を集めています。
ドメインダイナミック調整メタラーニング(D2AM)についてドメインラベルを使わずに提案する。
この制限を克服するため,ドメインダイナミック調整メタラーニング(D2AM)を提案する。
論文 参考訳(メタデータ) (2021-05-06T06:04:59Z) - Model-Based Domain Generalization [96.84818110323518]
本稿では,モデルベースドメイン一般化問題に対する新しいアプローチを提案する。
我々のアルゴリズムは、最新のwildsベンチマークの最先端手法を最大20ポイント上回った。
論文 参考訳(メタデータ) (2021-02-23T00:59:02Z) - Learning Invariant Representations and Risks for Semi-supervised Domain
Adaptation [109.73983088432364]
半教師付きドメイン適応(Semi-DA)の設定の下で不変表現とリスクを同時に学習することを目的とした最初の手法を提案する。
共同で textbfLearning textbfInvariant textbfRepresentations と textbfRisks の LIRR アルゴリズムを導入する。
論文 参考訳(メタデータ) (2020-10-09T15:42:35Z) - Discrepancy Minimization in Domain Generalization with Generative
Nearest Neighbors [13.047289562445242]
ドメイン一般化(Domain Generalization, DG)は、複数のソースドメインでトレーニングされた機械学習モデルが、統計の異なるターゲットドメインでうまく一般化できないという、ドメインシフトの問題を扱う。
シフト対象領域の一般化を保証するのに失敗するソースドメイン全体にわたるドメイン不変表現を学習することにより、ドメイン一般化の問題を解決するために、複数のアプローチが提案されている。
本稿では,GNNDM(Generative Nearest Neighbor Based Discrepancy Minimization)法を提案する。
論文 参考訳(メタデータ) (2020-07-28T14:54:25Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。