論文の概要: ERM++: An Improved Baseline for Domain Generalization
- arxiv url: http://arxiv.org/abs/2304.01973v1
- Date: Tue, 4 Apr 2023 17:31:15 GMT
- ステータス: 処理完了
- システム内更新日: 2023-04-05 12:52:37.023189
- Title: ERM++: An Improved Baseline for Domain Generalization
- Title(参考訳): erm++: ドメインの一般化のためのベースラインの改善
- Authors: Piotr Teterwak, Kuniaki Saito, Theodoros Tsiligkaridis, Kate Saenko,
Bryan A. Plummer
- Abstract要約: マルチソースドメイン一般化(DG)は、訓練されていないデータの新しい分布に一般化する分類器の能力を測定する。
経験的リスク最小化(ERM)訓練は,既存のDG法よりも優れていることを示す。
得られた手法をERM++と呼び、5つのマルチソースデータセット上でのDGの性能を5%以上向上させることを示す。
- 参考スコア(独自算出の注目度): 61.25412657598642
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Multi-source Domain Generalization (DG) measures a classifier's ability to
generalize to new distributions of data it was not trained on, given several
training domains. While several multi-source DG methods have been proposed,
they incur additional complexity during training by using domain labels. Recent
work has shown that a well-tuned Empirical Risk Minimization (ERM) training
procedure, that is simply minimizing the empirical risk on the source domains,
can outperform most existing DG methods. We identify several key candidate
techniques to further improve ERM performance, such as better utilization of
training data, model parameter selection, and weight-space regularization. We
call the resulting method ERM++, and show it significantly improves the
performance of DG on five multi-source datasets by over 5% compared to standard
ERM, and beats state-of-the-art despite being less computationally expensive.
Additionally, we demonstrate the efficacy of ERM++ on the WILDS-FMOW dataset, a
challenging DG benchmark. We hope that ERM++ becomes a strong baseline for
future DG research. Code is released at
https://github.com/piotr-teterwak/erm_plusplus.
- Abstract(参考訳): マルチソースドメイン一般化(DG)は、訓練されていないデータの新しい分布に一般化する分類器の能力を測定する。
いくつかのマルチソースDG手法が提案されているが、ドメインラベルを用いてトレーニング中にさらに複雑になる。
近年の研究では、経験的リスク最小化(ERM)トレーニングが、ソースドメインにおける経験的リスクを最小限に抑えるだけで、既存のDGメソッドよりも優れていることが示されている。
トレーニングデータのより良い利用、モデルパラメータの選択、重み空間の正規化など、EMMの性能を改善するためのいくつかの重要な候補手法を同定する。
提案手法はERM++と呼ばれ,従来のERMに比べて5つのマルチソースデータセット上でのDGの性能が5%以上向上し,計算コストが低いにもかかわらず最先端の手法に勝っていることを示す。
さらに、挑戦的なDGベンチマークであるWILDS-FMOWデータセット上で、ERM++の有効性を示す。
ERM++が将来のDG研究の強力なベースラインになることを願っています。
コードはhttps://github.com/piotr-teterwak/erm_plusplusでリリースされる。
関連論文リスト
- Is Large-Scale Pretraining the Secret to Good Domain Generalization? [69.80606575323691]
マルチソース・ドメイン・ジェネリゼーション(Multi-Source Domain Generalization, DG)は、複数のソース・ドメインをトレーニングし、未確認のターゲット・ドメインに対して高い分類性能を達成するタスクである。
最近の手法では、Webスケールの事前訓練されたバックボーンの堅牢な機能と、ソースデータから学んだ新機能を組み合わせることで、ベンチマーク結果を劇的に改善している。
評価されたDGメソッドはすべてDomainBed-OOPで苦労し、最近のメソッドはDomainBed-IPで優れています。
論文 参考訳(メタデータ) (2024-12-03T21:43:11Z) - Efficiently Assemble Normalization Layers and Regularization for Federated Domain Generalization [1.1534313664323637]
ドメインシフト(Domain shift)は、マシンラーニングにおいて、目に見えないドメインでテストした場合に、モデルのパフォーマンス低下に悩まされるという深刻な問題である。
FedDGは、プライバシー保護の方法で協調的なクライアントを使用してグローバルモデルをトレーニングしようと試みている。
本稿では, 誘導正規化方式に依存するFedDGの新しいアーキテクチャ手法,すなわちgPerXANを紹介する。
論文 参考訳(メタデータ) (2024-03-22T20:22:08Z) - Cross Domain Generative Augmentation: Domain Generalization with Latent
Diffusion Models [11.309433257851122]
Cross Domain Generative Augmentation (CDGA)は、すべてのドメイン間のギャップを埋めるために合成画像を生成する。
我々は,CDGAがDomainbedベンチマークでSOTA DG法より優れていることを示す。
論文 参考訳(メタデータ) (2023-12-08T21:52:00Z) - Back to Basics: A Simple Recipe for Improving Out-of-Domain Retrieval in
Dense Encoders [63.28408887247742]
得られたモデルにおいて,より優れた一般化能力を得るために,トレーニング手順の改善が可能であるかを検討する。
我々は、高密度エンコーダをトレーニングするための簡単なレシピを推奨する: LoRAのようなパラメータ効率のよいMSMARCOのトレーニング。
論文 参考訳(メタデータ) (2023-11-16T10:42:58Z) - On-Device Domain Generalization [93.79736882489982]
ドメインの一般化はデバイス上の機械学習アプリケーションにとって重要である。
知識蒸留がこの問題の解決の有力な候補であることがわかった。
本研究では,教師が配布外データをどのように扱えるかを学生に教えることを目的とした,配布外知識蒸留(OKD)という簡単なアイデアを提案する。
論文 参考訳(メタデータ) (2022-09-15T17:59:31Z) - Back-to-Bones: Rediscovering the Role of Backbones in Domain
Generalization [1.6799377888527687]
ドメイン一般化は、学習外分布に一般化する深層学習モデルの能力を研究する。
近年の研究では、DGの再現可能なベンチマークが提供され、既存のアルゴリズムに対する経験的リスク最小化(ERM)の有効性が指摘されている。
本稿では,その内在的一般化能力を包括的に分析するバックボーンの評価を行う。
論文 参考訳(メタデータ) (2022-09-02T15:30:17Z) - On Certifying and Improving Generalization to Unseen Domains [87.00662852876177]
ドメインの一般化は、テスト時に遭遇した見知らぬドメインのパフォーマンスが高いモデルを学ぶことを目的としています。
いくつかのベンチマークデータセットを使用して、DGアルゴリズムを包括的に評価することは困難である。
我々は,任意のDG手法の最悪の性能を効率的に証明できる普遍的な認証フレームワークを提案する。
論文 参考訳(メタデータ) (2022-06-24T16:29:43Z) - Improving Multi-Domain Generalization through Domain Re-labeling [31.636953426159224]
本稿では,事前特定ドメインラベルと一般化性能の関連性について検討する。
マルチドメイン一般化のための一般的なアプローチであるMulDEnsを導入し,ERMをベースとした深層アンサンブルバックボーンを用いた。
我々は、MulDEnsがデータセット固有の拡張戦略やトレーニングプロセスの調整を必要としないことを示す。
論文 参考訳(メタデータ) (2021-12-17T23:21:50Z) - META: Mimicking Embedding via oThers' Aggregation for Generalizable
Person Re-identification [68.39849081353704]
Domain Generalizable (DG) Person Re-identification (ReID)は、トレーニング時に対象のドメインデータにアクセスすることなく、見えないドメインをまたいでテストすることを目的としている。
本稿では,DG ReID のための OThers' Aggregation (META) を用いた Mimicking Embedding という新しい手法を提案する。
論文 参考訳(メタデータ) (2021-12-16T08:06:50Z) - Reappraising Domain Generalization in Neural Networks [8.06370138649329]
機械学習アルゴリズムのドメイン一般化(DG)は、複数のトレーニング分布からドメインに依存しない仮説を学習する能力として定義される。
経験的リスク最小化(ERM)ベースラインは,既存のDG手法を一貫して上回っていることがわかった。
そこで我々は,各クラスに対してランダムにドメインを選択して,それをテスト用として保持する,クラスワイズDGの定式化を提案する。
論文 参考訳(メタデータ) (2021-10-15T10:06:40Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。