論文の概要: ERM++: An Improved Baseline for Domain Generalization
- arxiv url: http://arxiv.org/abs/2304.01973v3
- Date: Tue, 26 Mar 2024 22:46:10 GMT
- ステータス: 処理完了
- システム内更新日: 2024-03-28 23:22:06.728187
- Title: ERM++: An Improved Baseline for Domain Generalization
- Title(参考訳): ERM++: ドメインの一般化のための改善されたベースライン
- Authors: Piotr Teterwak, Kuniaki Saito, Theodoros Tsiligkaridis, Kate Saenko, Bryan A. Plummer,
- Abstract要約: 経験的リスク最小化(ERM)は、既存のドメイン一般化(DG)手法よりも優れていることを示す。
ERMは、学習率、ウェイト崩壊、バッチサイズ、ドロップアウトなどのハイパーパラメータのみをチューニングしながら、そのような強力な結果を得た。
結果、より強力なベースライン ERM++ を呼び出します。
- 参考スコア(独自算出の注目度): 69.80606575323691
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Domain Generalization (DG) measures a classifier's ability to generalize to new distributions of data it was not trained on. Recent work has shown that a hyperparameter-tuned Empirical Risk Minimization (ERM) training procedure, that is simply minimizing the empirical risk on the source domains, can outperform most existing DG methods. ERM has achieved such strong results while only tuning hyper-parameters such as learning rate, weight decay, batch size, and dropout. However there are additional hyperparameters which further limit overfitting and catastrophic forgetting. We therefore focus on tuning previously untuned hyper-parameters, including training amount, initialization, and additional regularizers. We call the resulting stronger baseline ERM++. ERM++ improves the performance of DG by over 5% compared to prior ERM baselines on a standard benchmark of 5 datasets with a ResNet-50 and over 15% with a ViT-B/16, and outperforms all SOTA methods on DomainBed with both architectures. We also explore the relationship between DG performance and similarity to pre-training data, and find that similarity to pre-training data distributions is an important driver of performance, but that ERM++ with stronger initializations can deliver strong performance even on dissimilar datasets.Code is released at https://github.com/piotr-teterwak/erm_plusplus.
- Abstract(参考訳): ドメイン一般化(DG)は、訓練されていないデータの新しい分布に一般化する分類器の能力を測定する。
近年の研究では、ソースドメインに対する経験的リスクを最小限に抑える超パラメータ調整経験的リスク最小化(ERM)トレーニングが、既存のDGメソッドよりも優れていることが示されている。
ERMは、学習率、重量減少、バッチサイズ、ドロップアウトなどのハイパーパラメータをチューニングするだけで、そのような強力な結果を得た。
しかし、過剰適合と破滅的な忘れを更に制限する追加のハイパーパラメータが存在する。
したがって、トレーニング量、初期化、追加の正規化子を含む、未チューニングのハイパーパラメータのチューニングに重点を置いている。
結果、より強力なベースライン ERM++ を呼び出します。
ERM++は、ResNet-50を持つ5つのデータセットの標準ベンチマークにおいて、以前のEMMベースラインと比較して、DGのパフォーマンスを5%以上改善し、VT-B/16で15%以上向上し、両方のアーキテクチャでDomainBed上のすべてのSOTAメソッドを上回っている。
また、DGパフォーマンスと事前トレーニングデータとの類似性についても検討し、事前トレーニングデータディストリビューションとの類似性はパフォーマンスの重要な要因であるが、より強力な初期化を持つEMM++は、異種データセットでも強力なパフォーマンスを提供できることを発見した。
関連論文リスト
- Is Large-Scale Pretraining the Secret to Good Domain Generalization? [69.80606575323691]
マルチソース・ドメイン・ジェネリゼーション(Multi-Source Domain Generalization, DG)は、複数のソース・ドメインをトレーニングし、未確認のターゲット・ドメインに対して高い分類性能を達成するタスクである。
最近の手法では、Webスケールの事前訓練されたバックボーンの堅牢な機能と、ソースデータから学んだ新機能を組み合わせることで、ベンチマーク結果を劇的に改善している。
評価されたDGメソッドはすべてDomainBed-OOPで苦労し、最近のメソッドはDomainBed-IPで優れています。
論文 参考訳(メタデータ) (2024-12-03T21:43:11Z) - Efficiently Assemble Normalization Layers and Regularization for Federated Domain Generalization [1.1534313664323637]
ドメインシフト(Domain shift)は、マシンラーニングにおいて、目に見えないドメインでテストした場合に、モデルのパフォーマンス低下に悩まされるという深刻な問題である。
FedDGは、プライバシー保護の方法で協調的なクライアントを使用してグローバルモデルをトレーニングしようと試みている。
本稿では, 誘導正規化方式に依存するFedDGの新しいアーキテクチャ手法,すなわちgPerXANを紹介する。
論文 参考訳(メタデータ) (2024-03-22T20:22:08Z) - Cross Domain Generative Augmentation: Domain Generalization with Latent
Diffusion Models [11.309433257851122]
Cross Domain Generative Augmentation (CDGA)は、すべてのドメイン間のギャップを埋めるために合成画像を生成する。
我々は,CDGAがDomainbedベンチマークでSOTA DG法より優れていることを示す。
論文 参考訳(メタデータ) (2023-12-08T21:52:00Z) - Back to Basics: A Simple Recipe for Improving Out-of-Domain Retrieval in
Dense Encoders [63.28408887247742]
得られたモデルにおいて,より優れた一般化能力を得るために,トレーニング手順の改善が可能であるかを検討する。
我々は、高密度エンコーダをトレーニングするための簡単なレシピを推奨する: LoRAのようなパラメータ効率のよいMSMARCOのトレーニング。
論文 参考訳(メタデータ) (2023-11-16T10:42:58Z) - On-Device Domain Generalization [93.79736882489982]
ドメインの一般化はデバイス上の機械学習アプリケーションにとって重要である。
知識蒸留がこの問題の解決の有力な候補であることがわかった。
本研究では,教師が配布外データをどのように扱えるかを学生に教えることを目的とした,配布外知識蒸留(OKD)という簡単なアイデアを提案する。
論文 参考訳(メタデータ) (2022-09-15T17:59:31Z) - Back-to-Bones: Rediscovering the Role of Backbones in Domain
Generalization [1.6799377888527687]
ドメイン一般化は、学習外分布に一般化する深層学習モデルの能力を研究する。
近年の研究では、DGの再現可能なベンチマークが提供され、既存のアルゴリズムに対する経験的リスク最小化(ERM)の有効性が指摘されている。
本稿では,その内在的一般化能力を包括的に分析するバックボーンの評価を行う。
論文 参考訳(メタデータ) (2022-09-02T15:30:17Z) - On Certifying and Improving Generalization to Unseen Domains [87.00662852876177]
ドメインの一般化は、テスト時に遭遇した見知らぬドメインのパフォーマンスが高いモデルを学ぶことを目的としています。
いくつかのベンチマークデータセットを使用して、DGアルゴリズムを包括的に評価することは困難である。
我々は,任意のDG手法の最悪の性能を効率的に証明できる普遍的な認証フレームワークを提案する。
論文 参考訳(メタデータ) (2022-06-24T16:29:43Z) - Improving Multi-Domain Generalization through Domain Re-labeling [31.636953426159224]
本稿では,事前特定ドメインラベルと一般化性能の関連性について検討する。
マルチドメイン一般化のための一般的なアプローチであるMulDEnsを導入し,ERMをベースとした深層アンサンブルバックボーンを用いた。
我々は、MulDEnsがデータセット固有の拡張戦略やトレーニングプロセスの調整を必要としないことを示す。
論文 参考訳(メタデータ) (2021-12-17T23:21:50Z) - META: Mimicking Embedding via oThers' Aggregation for Generalizable
Person Re-identification [68.39849081353704]
Domain Generalizable (DG) Person Re-identification (ReID)は、トレーニング時に対象のドメインデータにアクセスすることなく、見えないドメインをまたいでテストすることを目的としている。
本稿では,DG ReID のための OThers' Aggregation (META) を用いた Mimicking Embedding という新しい手法を提案する。
論文 参考訳(メタデータ) (2021-12-16T08:06:50Z) - Reappraising Domain Generalization in Neural Networks [8.06370138649329]
機械学習アルゴリズムのドメイン一般化(DG)は、複数のトレーニング分布からドメインに依存しない仮説を学習する能力として定義される。
経験的リスク最小化(ERM)ベースラインは,既存のDG手法を一貫して上回っていることがわかった。
そこで我々は,各クラスに対してランダムにドメインを選択して,それをテスト用として保持する,クラスワイズDGの定式化を提案する。
論文 参考訳(メタデータ) (2021-10-15T10:06:40Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。