論文の概要: Learning to Learn Single Domain Generalization
- arxiv url: http://arxiv.org/abs/2003.13216v1
- Date: Mon, 30 Mar 2020 04:39:53 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-18 07:57:05.245459
- Title: Learning to Learn Single Domain Generalization
- Title(参考訳): 単一ドメインの一般化を学ぶ
- Authors: Fengchun Qiao, Long Zhao, Xi Peng
- Abstract要約: 本稿では,このアウト・オブ・ディストリビューション(OOD)一般化問題を解くために,逆領域拡張という新しい手法を提案する。
鍵となる考え方は、敵の訓練を活用して「現実的」だが「混み合う」人口を作り出すことである。
高速で望ましいドメイン拡張を容易にするため、メタラーニング方式でモデルトレーニングを行い、Wasserstein Auto-Encoder (WAE) を用いて、広く使われている最悪のケース制約を緩和する。
- 参考スコア(独自算出の注目度): 18.72451358284104
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We are concerned with a worst-case scenario in model generalization, in the
sense that a model aims to perform well on many unseen domains while there is
only one single domain available for training. We propose a new method named
adversarial domain augmentation to solve this Out-of-Distribution (OOD)
generalization problem. The key idea is to leverage adversarial training to
create "fictitious" yet "challenging" populations, from which a model can learn
to generalize with theoretical guarantees. To facilitate fast and desirable
domain augmentation, we cast the model training in a meta-learning scheme and
use a Wasserstein Auto-Encoder (WAE) to relax the widely used worst-case
constraint. Detailed theoretical analysis is provided to testify our
formulation, while extensive experiments on multiple benchmark datasets
indicate its superior performance in tackling single domain generalization.
- Abstract(参考訳): モデル一般化における最悪のシナリオは、モデルが未確認領域の多くでうまく機能することを目的としており、トレーニングに利用できるドメインは1つしかありません。
本稿では,この分散型一般化問題を解くために,adversarial domain augmentationという新しい手法を提案する。
鍵となるアイデアは、敵の訓練を活用して、モデルが理論的な保証で一般化することを学べる「有害」だが「困難」な集団を作り出すことである。
ドメイン拡張を迅速かつ望ましいものにするため,モデルトレーニングをメタラーニング方式で実施し,wasserstein auto-encoder (wae) を用いて,広く使用される最悪の制約を緩和した。
複数のベンチマークデータセットに対する広範な実験は、単一ドメインの一般化に取り組む上で、その優れた性能を示している。
関連論文リスト
- Non-stationary Domain Generalization: Theory and Algorithm [11.781050299571692]
本稿では,非定常環境における領域一般化について検討する。
まず,環境非定常性がモデル性能に及ぼす影響について検討する。
そこで我々は適応不変表現学習に基づく新しいアルゴリズムを提案する。
論文 参考訳(メタデータ) (2024-05-10T21:32:43Z) - Continuous Unsupervised Domain Adaptation Using Stabilized
Representations and Experience Replay [23.871860648919593]
本稿では,教師なしドメイン適応(UDA)問題に継続学習(CL)シナリオで対処するアルゴリズムを提案する。
我々の解は、学習した内部分布を安定化し、新しい領域におけるモデル一般化を強化することに基づいている。
経験リプレイを活用して,新たなタスクを学習する際に獲得した知識をモデルが失う,破滅的な忘れ事の問題を克服する。
論文 参考訳(メタデータ) (2024-01-31T05:09:14Z) - Improving Generalization with Domain Convex Game [32.07275105040802]
ドメインの一般化は、複数のソースドメインを持つモデルを学習することで、ディープニューラルネットワークの貧弱な一般化能力を緩和する傾向がある。
DG の古典的な解は領域拡大であり、その一般的な信念は、ソース領域の多様化は分布外一般化に導かれるということである。
モデル一般化と領域の多様性の相関は厳密には正ではなく,ドメイン拡張の有効性を制限している。
論文 参考訳(メタデータ) (2023-03-23T14:27:49Z) - When Neural Networks Fail to Generalize? A Model Sensitivity Perspective [82.36758565781153]
ドメイン一般化 (Domain Generalization, DG) は、異なる分布の下で見えないドメインでうまく機能するようにモデルを訓練することを目的としている。
本稿では,より現実的で,より困難なシナリオである単一領域一般化(Single-DG)について考察する。
我々は「モデル感度」と命名する一般化と強く相関するモデルの性質を経験的に確認する。
本稿では、高感度の周波数をターゲットとした拡張画像を生成するために、スペクトル逆データ拡張(SADA)の新たな戦略を提案する。
論文 参考訳(メタデータ) (2022-12-01T20:15:15Z) - Single-domain Generalization in Medical Image Segmentation via Test-time
Adaptation from Shape Dictionary [64.5632303184502]
ドメインの一般化は通常、モデル学習のために複数のソースドメインからのデータを必要とする。
本稿では,1つのソースドメインのみで最悪のシナリオ下でモデルを学習し,異なる未確認対象ドメインに直接一般化する,重要な単一ドメインの一般化問題について考察する。
本稿では,領域間で不変なセグメンテーションのセグメンテーション先情報を抽出し,統合する医用画像セグメンテーションにおいて,この問題に対処する新しいアプローチを提案する。
論文 参考訳(メタデータ) (2022-06-29T08:46:27Z) - Unsupervised Domain Generalization for Person Re-identification: A
Domain-specific Adaptive Framework [50.88463458896428]
ドメイン一般化(DG)は近年,人物再同定(ReID)において注目されている。
既存のメソッドは通常、ソースドメインにラベルを付ける必要があります。
本稿では、単純で効率的なドメイン固有適応化フレームワークを提案し、適応正規化モジュールで実現する。
論文 参考訳(メタデータ) (2021-11-30T02:35:51Z) - Self-balanced Learning For Domain Generalization [64.99791119112503]
ドメインの一般化は、モデルが未知の統計を持つ対象のドメインに一般化できるように、マルチドメインのソースデータの予測モデルを学ぶことを目的としている。
既存のアプローチのほとんどは、ソースデータがドメインとクラスの両方の観点からバランスよく調整されているという前提の下で開発されている。
本稿では,多領域ソースデータの分布の違いによるバイアスを軽減するために,損失の重み付けを適応的に学習する自己均衡型領域一般化フレームワークを提案する。
論文 参考訳(メタデータ) (2021-08-31T03:17:54Z) - f-Domain-Adversarial Learning: Theory and Algorithms [82.97698406515667]
教師なしのドメイン適応は、トレーニング中、ターゲットドメイン内のラベルなしデータにアクセス可能な、多くの機械学習アプリケーションで使用されている。
領域適応のための新しい一般化法を導出し、f-発散体の変分的特徴に基づく分布間の相違性の新しい尺度を利用する。
論文 参考訳(メタデータ) (2021-06-21T18:21:09Z) - Domain Generalization using Ensemble Learning [0.0]
モデルが単一ソースドメインでトレーニングされる場合、モデルの弱い一般化の問題に対処する。
この観点から,単一ソース上で訓練されたベースディープラーニングモデルに基づいてアンサンブルモデルを構築し,その集合予測の一般化を促進する。
論文 参考訳(メタデータ) (2021-03-18T13:50:36Z) - Model-Based Domain Generalization [96.84818110323518]
本稿では,モデルベースドメイン一般化問題に対する新しいアプローチを提案する。
我々のアルゴリズムは、最新のwildsベンチマークの最先端手法を最大20ポイント上回った。
論文 参考訳(メタデータ) (2021-02-23T00:59:02Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。