論文の概要: Reappraising Domain Generalization in Neural Networks
- arxiv url: http://arxiv.org/abs/2110.07981v1
- Date: Fri, 15 Oct 2021 10:06:40 GMT
- ステータス: 処理完了
- システム内更新日: 2021-10-18 23:24:41.901103
- Title: Reappraising Domain Generalization in Neural Networks
- Title(参考訳): ニューラルネットワークにおける領域一般化の再適用
- Authors: Sarath Sivaprasad, Akshay Goindani, Vaibhav Garg, Vineet Gandhi
- Abstract要約: 機械学習アルゴリズムのドメイン一般化(DG)は、複数のトレーニング分布からドメインに依存しない仮説を学習する能力として定義される。
経験的リスク最小化(ERM)ベースラインは,既存のDG手法を一貫して上回っていることがわかった。
そこで我々は,各クラスに対してランダムにドメインを選択して,それをテスト用として保持する,クラスワイズDGの定式化を提案する。
- 参考スコア(独自算出の注目度): 8.06370138649329
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Domain generalization (DG) of machine learning algorithms is defined as their
ability to learn a domain agnostic hypothesis from multiple training
distributions, which generalizes onto data from an unseen domain. DG is vital
in scenarios where the target domain with distinct characteristics has sparse
data for training. Aligning with recent work~\cite{gulrajani2020search}, we
find that a straightforward Empirical Risk Minimization (ERM) baseline
consistently outperforms existing DG methods. We present ablation studies
indicating that the choice of backbone, data augmentation, and optimization
algorithms overshadows the many tricks and trades explored in the prior art.
Our work leads to a new state of the art on the four popular DG datasets,
surpassing previous methods by large margins. Furthermore, as a key
contribution, we propose a classwise-DG formulation, where for each class, we
randomly select one of the domains and keep it aside for testing. We argue that
this benchmarking is closer to human learning and relevant in real-world
scenarios. We comprehensively benchmark classwise-DG on the DomainBed and
propose a method combining ERM and reverse gradients to achieve the
state-of-the-art results. To our surprise, despite being exposed to all domains
during training, the classwise DG is more challenging than traditional DG
evaluation and motivates more fundamental rethinking on the problem of DG.
- Abstract(参考訳): 機械学習アルゴリズムのドメイン一般化(DG)は、複数のトレーニング分布からドメインに依存しない仮説を学習する能力として定義される。
DGは、異なる特徴を持つターゲットドメインがトレーニング用の疎データを持つシナリオにおいて不可欠である。
最近の研究と並行して、単純な経験的リスク最小化(ERM)ベースラインは、既存のDG手法を一貫して上回っている。
本稿では,バックボーンの選択,データ拡張,最適化アルゴリズムが,先行技術における多くのトリックや取引を覆していることを示すアブレーション研究を行う。
我々の研究は、4つの人気のあるDGデータセットの新たな最先端技術をもたらし、従来の手法をはるかに上回っている。
さらに、重要な貢献として、各クラスに対してランダムに1つのドメインを選択し、それをテスト用として保持するクラスワイズDGの定式化を提案する。
このベンチマークは人間の学習に近づき、現実世界のシナリオに関係していると我々は主張する。
本研究では,DomainBedのクラスワイズDGを総合的にベンチマークし,ERMと逆勾配を組み合わせた手法を提案する。
驚いたことに、訓練中にすべてのドメインに暴露されているにもかかわらず、クラスワイドDGは従来のDG評価よりも困難であり、DGの問題を根本的に再考する動機となっている。
関連論文リスト
- Disentangling Masked Autoencoders for Unsupervised Domain Generalization [57.56744870106124]
教師なしの領域一般化は急速に注目されているが、まだ十分に研究されていない。
Disentangled Masked Auto (DisMAE) は、本質的な特徴を忠実に示す不整合表現を発見することを目的としている。
DisMAEは、セマンティックで軽量な変分エンコーダを備えた非対称なデュアルブランチアーキテクチャを共同で訓練する。
論文 参考訳(メタデータ) (2024-07-10T11:11:36Z) - MADG: Margin-based Adversarial Learning for Domain Generalization [25.45950080930517]
そこで本稿では,差分損失に基づく離散性尺度に基づく新しい逆学習DGアルゴリズムMADGを提案する。
提案したMADGモデルは,すべてのソースドメインにまたがるドメイン不変の特徴を学習し,敵対的トレーニングを用いて,未知のターゲットドメインによく適応する。
我々は、人気のある実世界のDGデータセット上でMADGモデルを広範囲に実験した。
論文 参考訳(メタデータ) (2023-11-14T19:53:09Z) - Towards Domain-Specific Features Disentanglement for Domain
Generalization [23.13095840134744]
そこで本研究では,見過ごされがちな領域特化特徴を生かした,新しいコントラッシブ・ベース・ディコンタンジメント法CDDGを提案する。
具体的には、CDDGは、潜在空間においてそれらを活用することによって、固有の排他的特徴を分離することを学ぶ。
各種ベンチマークデータセットを用いて行った実験は,他の最先端手法と比較して,本手法の優位性を示した。
論文 参考訳(メタデータ) (2023-10-04T17:51:02Z) - Towards Reliable Domain Generalization: A New Dataset and Evaluations [45.68339440942477]
我々は手書き文字認識(HCCR)のための新しい領域一般化タスクを提案する。
提案したPaHCCデータセット上で18のDG手法を評価し,既存の手法の性能がまだ不十分であることを示す。
私たちのデータセットと評価は、コミュニティに新たな視点をもたらし、より実質的な進歩をもたらします。
論文 参考訳(メタデータ) (2023-09-12T11:29:12Z) - Federated Domain Generalization: A Survey [12.84261944926547]
機械学習では、データはさまざまなデバイス、組織、エッジノードに分散されることが多い。
この課題に応えて、連邦領域の一般化への関心が高まっている。
本稿では,この領域における最近の進歩に関する最初の調査について述べる。
論文 参考訳(メタデータ) (2023-06-02T07:55:42Z) - On Certifying and Improving Generalization to Unseen Domains [87.00662852876177]
ドメインの一般化は、テスト時に遭遇した見知らぬドメインのパフォーマンスが高いモデルを学ぶことを目的としています。
いくつかのベンチマークデータセットを使用して、DGアルゴリズムを包括的に評価することは困難である。
我々は,任意のDG手法の最悪の性能を効率的に証明できる普遍的な認証フレームワークを提案する。
論文 参考訳(メタデータ) (2022-06-24T16:29:43Z) - Compound Domain Generalization via Meta-Knowledge Encoding [55.22920476224671]
マルチモーダル分布を再正規化するために,スタイル駆動型ドメイン固有正規化(SDNorm)を導入する。
組込み空間における関係モデリングを行うために,プロトタイプ表現,クラスセントロイドを利用する。
4つの標準ドメイン一般化ベンチマークの実験により、COMENはドメインの監督なしに最先端のパフォーマンスを上回ることが判明した。
論文 参考訳(メタデータ) (2022-03-24T11:54:59Z) - COLUMBUS: Automated Discovery of New Multi-Level Features for Domain
Generalization via Knowledge Corruption [12.555885317622131]
ここでは、ソースドメインの集合で訓練されたモデルが、データに触れることなく、目に見えないドメインでうまく一般化されることを期待する領域一般化問題に対処する。
コロンバス(Columbus)は、最も関連性の高い入力とマルチレベルのデータ表現を対象とする汚職によって、新機能の発見を強制する手法である。
論文 参考訳(メタデータ) (2021-09-09T14:52:05Z) - Domain Generalization: A Survey [146.68420112164577]
ドメイン一般化(DG)は、モデル学習にソースドメインデータを使用するだけでOOD一般化を実現することを目的としています。
初めて、DGの10年の開発をまとめるために包括的な文献レビューが提供されます。
論文 参考訳(メタデータ) (2021-03-03T16:12:22Z) - Model-Based Domain Generalization [96.84818110323518]
本稿では,モデルベースドメイン一般化問題に対する新しいアプローチを提案する。
我々のアルゴリズムは、最新のwildsベンチマークの最先端手法を最大20ポイント上回った。
論文 参考訳(メタデータ) (2021-02-23T00:59:02Z) - Sequential Learning for Domain Generalization [81.70387860425855]
ドメイン一般化(DG)のための逐次学習フレームワークを提案する。
最近提案されたメタラーニング領域一般化(MLDG)への応用に焦点をあてる。
論文 参考訳(メタデータ) (2020-04-03T05:10:33Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。