論文の概要: Meta Adaptive Task Sampling for Few-Domain Generalization
- arxiv url: http://arxiv.org/abs/2305.15644v1
- Date: Thu, 25 May 2023 01:44:09 GMT
- ステータス: 処理完了
- システム内更新日: 2023-05-26 18:04:07.115579
- Title: Meta Adaptive Task Sampling for Few-Domain Generalization
- Title(参考訳): Few-Domain Generalizationのためのメタ適応タスクサンプリング
- Authors: Zheyan Shen, Han Yu, Peng Cui, Jiashuo Liu, Xingxuan Zhang, Linjun
Zhou, Furui Liu
- Abstract要約: FDG(Few-domain Generalization)は、新規タスクのごく少数のドメインから一般化可能なモデルを学ぶことを目的としている。
本稿では,メタ適応タスクサンプリング(MATS)手法を提案する。
- 参考スコア(独自算出の注目度): 43.2043988610497
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: To ensure the out-of-distribution (OOD) generalization performance,
traditional domain generalization (DG) methods resort to training on data from
multiple sources with different underlying distributions. And the success of
those DG methods largely depends on the fact that there are diverse training
distributions. However, it usually needs great efforts to obtain enough
heterogeneous data due to the high expenses, privacy issues or the scarcity of
data. Thus an interesting yet seldom investigated problem arises: how to
improve the OOD generalization performance when the perceived heterogeneity is
limited. In this paper, we instantiate a new framework called few-domain
generalization (FDG), which aims to learn a generalizable model from very few
domains of novel tasks with the knowledge acquired from previous learning
experiences on base tasks. Moreover, we propose a Meta Adaptive Task Sampling
(MATS) procedure to differentiate base tasks according to their semantic and
domain-shift similarity to the novel task. Empirically, we show that the newly
introduced FDG framework can substantially improve the OOD generalization
performance on the novel task and further combining MATS with episodic training
could outperform several state-of-the-art DG baselines on widely used
benchmarks like PACS and DomainNet.
- Abstract(参考訳): out-of-distribution (ood) の一般化性能を保証するため、従来のドメイン一般化 (dg) メソッドでは、複数のソースからのデータをトレーニングする。
これらのDG手法の成功は、様々なトレーニング分布が存在するという事実に大きく依存する。
しかし、高い費用、プライバシーの問題、データの不足などにより、不均一なデータを得るには、通常十分な努力が必要となる。
したがって、OOD一般化性能が不均一性に制限された場合にどのように改善するかという、興味深い研究はめったに行われない。
本稿では,従来の学習経験から得られた知識をベースタスクとして,ごく少数の新規タスク領域から一般化可能なモデルを学習することを目的とした,FDGと呼ばれる新しいフレームワークをインスタンス化する。
さらに,新しいタスクと意味的およびドメインシフトの類似性に応じて基本タスクを識別するメタ適応タスクサンプリング(mats)手法を提案する。
実証的に,新たに導入されたfdgフレームワークは,新たなタスクにおけるood一般化性能を大幅に向上し,さらにマットとエピソディックトレーニングを組み合わせることで,pacsやdomainnetといった広く使用されているベンチマークにおいて,最先端のdgベースラインを上回ることができることを示した。
関連論文リスト
- LFME: A Simple Framework for Learning from Multiple Experts in Domain Generalization [61.16890890570814]
ドメイン一般化(Domain Generalization, DG)手法は、複数のソースドメインからのトレーニングデータを使用することで、目に見えないターゲットドメインにおける優れたパフォーマンスを維持することを目的としている。
この作業では、DGを改善するために、ターゲットモデルをすべてのソースドメインの専門家にすることを目的とした、複数の専門家(LFME)からの学習と呼ばれる、シンプルだが効果的なフレームワークを導入している。
論文 参考訳(メタデータ) (2024-10-22T13:44:10Z) - PracticalDG: Perturbation Distillation on Vision-Language Models for Hybrid Domain Generalization [24.413415998529754]
本稿では,Hybrid Domain Generalization (HDG) と,アルゴリズムのロバスト性を評価するために,様々な分割を構成する新しい指標である$H2$-CVを提案する。
提案手法は,複数のデータセット上での最先端アルゴリズムよりも優れており,特にデータ不足に直面する場合のロバスト性の向上に寄与する。
論文 参考訳(メタデータ) (2024-04-13T13:41:13Z) - Towards Reliable Domain Generalization: A New Dataset and Evaluations [45.68339440942477]
我々は手書き文字認識(HCCR)のための新しい領域一般化タスクを提案する。
提案したPaHCCデータセット上で18のDG手法を評価し,既存の手法の性能がまだ不十分であることを示す。
私たちのデータセットと評価は、コミュニティに新たな視点をもたらし、より実質的な進歩をもたらします。
論文 参考訳(メタデータ) (2023-09-12T11:29:12Z) - NormAUG: Normalization-guided Augmentation for Domain Generalization [60.159546669021346]
ディープラーニングのためのNormAUG(Normalization-guided Augmentation)と呼ばれるシンプルで効果的な手法を提案する。
本手法は特徴レベルで多様な情報を導入し,主経路の一般化を改善する。
テスト段階では、アンサンブル戦略を利用して、モデルの補助経路からの予測を組み合わせ、さらなる性能向上を図る。
論文 参考訳(メタデータ) (2023-07-25T13:35:45Z) - MultiMatch: Multi-task Learning for Semi-supervised Domain Generalization [55.06956781674986]
我々は、各ソースドメインにいくつかのラベル情報がある半教師付きドメイン一般化タスクの解決に頼っている。
我々は、MultiMatchを提案し、FixMatchをマルチタスク学習フレームワークに拡張し、SSDGのための高品質な擬似ラベルを生成する。
提案手法の有効性を検証し,いくつかのベンチマークDGデータセット上で既存の半教師付き手法とSSDG法より優れていることを示す。
論文 参考訳(メタデータ) (2022-08-11T14:44:33Z) - Contrastive Knowledge-Augmented Meta-Learning for Few-Shot
Classification [28.38744876121834]
本稿では,知識向上のための新しいアプローチであるCAML(Contrastive Knowledge-Augmented Meta Learning)を紹介する。
そこで我々は,CAMLの性能を,様々な場面で評価した。
論文 参考訳(メタデータ) (2022-07-25T17:01:29Z) - META: Mimicking Embedding via oThers' Aggregation for Generalizable
Person Re-identification [68.39849081353704]
Domain Generalizable (DG) Person Re-identification (ReID)は、トレーニング時に対象のドメインデータにアクセスすることなく、見えないドメインをまたいでテストすることを目的としている。
本稿では,DG ReID のための OThers' Aggregation (META) を用いた Mimicking Embedding という新しい手法を提案する。
論文 参考訳(メタデータ) (2021-12-16T08:06:50Z) - Reappraising Domain Generalization in Neural Networks [8.06370138649329]
機械学習アルゴリズムのドメイン一般化(DG)は、複数のトレーニング分布からドメインに依存しない仮説を学習する能力として定義される。
経験的リスク最小化(ERM)ベースラインは,既存のDG手法を一貫して上回っていることがわかった。
そこで我々は,各クラスに対してランダムにドメインを選択して,それをテスト用として保持する,クラスワイズDGの定式化を提案する。
論文 参考訳(メタデータ) (2021-10-15T10:06:40Z) - Multi-Domain Adversarial Feature Generalization for Person
Re-Identification [52.835955258959785]
マルチデータセット特徴一般化ネットワーク(MMFA-AAE)を提案する。
複数のラベル付きデータセットから普遍的なドメイン不変の特徴表現を学習し、それを見えないカメラシステムに一般化することができる。
また、最先端の教師付き手法や教師なしのドメイン適応手法を大きなマージンで超えている。
論文 参考訳(メタデータ) (2020-11-25T08:03:15Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。