論文の概要: Sequential Learning for Domain Generalization
- arxiv url: http://arxiv.org/abs/2004.01377v1
- Date: Fri, 3 Apr 2020 05:10:33 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-17 03:44:01.019106
- Title: Sequential Learning for Domain Generalization
- Title(参考訳): ドメイン一般化のための逐次学習
- Authors: Da Li, Yongxin Yang, Yi-Zhe Song and Timothy Hospedales
- Abstract要約: ドメイン一般化(DG)のための逐次学習フレームワークを提案する。
最近提案されたメタラーニング領域一般化(MLDG)への応用に焦点をあてる。
- 参考スコア(独自算出の注目度): 81.70387860425855
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In this paper we propose a sequential learning framework for Domain
Generalization (DG), the problem of training a model that is robust to domain
shift by design. Various DG approaches have been proposed with different
motivating intuitions, but they typically optimize for a single step of domain
generalization -- training on one set of domains and generalizing to one other.
Our sequential learning is inspired by the idea lifelong learning, where
accumulated experience means that learning the $n^{th}$ thing becomes easier
than the $1^{st}$ thing. In DG this means encountering a sequence of domains
and at each step training to maximise performance on the next domain. The
performance at domain $n$ then depends on the previous $n-1$ learning problems.
Thus backpropagating through the sequence means optimizing performance not just
for the next domain, but all following domains. Training on all such sequences
of domains provides dramatically more `practice' for a base DG learner compared
to existing approaches, thus improving performance on a true testing domain.
This strategy can be instantiated for different base DG algorithms, but we
focus on its application to the recently proposed Meta-Learning Domain
generalization (MLDG). We show that for MLDG it leads to a simple to implement
and fast algorithm that provides consistent performance improvement on a
variety of DG benchmarks.
- Abstract(参考訳): 本稿では,設計によってドメインシフトにロバストなモデルをトレーニングする問題である,ドメイン一般化のための逐次学習フレームワークを提案する。
様々なDGアプローチが、異なる動機付けの直観で提案されているが、それらは通常、ドメインの一般化の単一ステップのために最適化されている。
私たちのシーケンシャルな学習は生涯学習のアイデアにインスパイアされており、蓄積された経験は、n^{th}$の学習が1^{st}$の学習よりも簡単になることを意味する。
DGでは、一連のドメインに遭遇し、各ステップで次のドメインのパフォーマンスを最大化する。
ドメイン $n$ のパフォーマンスは、以前の $n-1$ 学習問題に依存する。
したがって、シーケンスをバックプロパゲーションすることは、次のドメインだけでなく、以下のすべてのドメインに対してパフォーマンスを最適化することを意味する。
このようなドメインのすべてのシーケンスのトレーニングは、既存のアプローチと比較して、ベースDG学習者には劇的に"実践的"を提供するため、真のテストドメインのパフォーマンスが向上します。
この戦略は、異なるベースDGアルゴリズムに対してインスタンス化することができるが、最近提案されたメタラーニングドメイン一般化(MLDG)への応用に焦点を当てる。
MLDGでは,様々なDGベンチマークで一貫した性能向上を実現する,実装が簡単かつ高速なアルゴリズムが実現可能であることを示す。
関連論文リスト
- Advancing Open-Set Domain Generalization Using Evidential Bi-Level Hardest Domain Scheduler [45.71475375161575]
Open-Set Domain Generalizationでは、新しいデータ外観(ドメイン)とオープンセット条件の両方でモデルが公開される。
適応型ドメインスケジューラを実現するために,Evidential Bi-Level Hardest Domain Scheduler (EBiL-HaDS)を提案する。
論文 参考訳(メタデータ) (2024-09-26T05:57:35Z) - Grounding Stylistic Domain Generalization with Quantitative Domain Shift Measures and Synthetic Scene Images [63.58800688320182]
ドメインの一般化は機械学習において難しい課題である。
現在の方法論は、スタイリスティック領域におけるシフトに関する定量的な理解を欠いている。
これらのリスクに対処する新しいDGパラダイムを導入する。
論文 参考訳(メタデータ) (2024-05-24T22:13:31Z) - MADG: Margin-based Adversarial Learning for Domain Generalization [25.45950080930517]
そこで本稿では,差分損失に基づく離散性尺度に基づく新しい逆学習DGアルゴリズムMADGを提案する。
提案したMADGモデルは,すべてのソースドメインにまたがるドメイン不変の特徴を学習し,敵対的トレーニングを用いて,未知のターゲットドメインによく適応する。
我々は、人気のある実世界のDGデータセット上でMADGモデルを広範囲に実験した。
論文 参考訳(メタデータ) (2023-11-14T19:53:09Z) - NormAUG: Normalization-guided Augmentation for Domain Generalization [60.159546669021346]
ディープラーニングのためのNormAUG(Normalization-guided Augmentation)と呼ばれるシンプルで効果的な手法を提案する。
本手法は特徴レベルで多様な情報を導入し,主経路の一般化を改善する。
テスト段階では、アンサンブル戦略を利用して、モデルの補助経路からの予測を組み合わせ、さらなる性能向上を図る。
論文 参考訳(メタデータ) (2023-07-25T13:35:45Z) - Improving Domain Generalization with Domain Relations [77.63345406973097]
本稿では、モデルがトレーニングされたドメインと異なる新しいドメインに適用されたときに発生するドメインシフトに焦点を当てる。
ドメイン固有モデルを学習するためのD$3$Gという新しい手法を提案する。
以上の結果から,D$3$Gは最先端の手法より一貫して優れていた。
論文 参考訳(メタデータ) (2023-02-06T08:11:16Z) - Improving Multi-Domain Generalization through Domain Re-labeling [31.636953426159224]
本稿では,事前特定ドメインラベルと一般化性能の関連性について検討する。
マルチドメイン一般化のための一般的なアプローチであるMulDEnsを導入し,ERMをベースとした深層アンサンブルバックボーンを用いた。
我々は、MulDEnsがデータセット固有の拡張戦略やトレーニングプロセスの調整を必要としないことを示す。
論文 参考訳(メタデータ) (2021-12-17T23:21:50Z) - Reappraising Domain Generalization in Neural Networks [8.06370138649329]
機械学習アルゴリズムのドメイン一般化(DG)は、複数のトレーニング分布からドメインに依存しない仮説を学習する能力として定義される。
経験的リスク最小化(ERM)ベースラインは,既存のDG手法を一貫して上回っていることがわかった。
そこで我々は,各クラスに対してランダムにドメインを選択して,それをテスト用として保持する,クラスワイズDGの定式化を提案する。
論文 参考訳(メタデータ) (2021-10-15T10:06:40Z) - Model-Based Domain Generalization [96.84818110323518]
本稿では,モデルベースドメイン一般化問題に対する新しいアプローチを提案する。
我々のアルゴリズムは、最新のwildsベンチマークの最先端手法を最大20ポイント上回った。
論文 参考訳(メタデータ) (2021-02-23T00:59:02Z) - Meta-Learning for Domain Generalization in Semantic Parsing [124.32975734073949]
セマンティック解析のためにゼロショットドメインをターゲットにしたメタラーニングフレームワークを使用する。
ゼロショット解析の仮想トレインと非結合領域からのテストセットをシミュレートするモデル非依存のトレーニングアルゴリズムを適用した。
論文 参考訳(メタデータ) (2020-10-22T19:00:36Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。