論文の概要: Improving the Generalization of Meta-learning on Unseen Domains via
Adversarial Shift
- arxiv url: http://arxiv.org/abs/2107.11056v1
- Date: Fri, 23 Jul 2021 07:29:30 GMT
- ステータス: 処理完了
- システム内更新日: 2021-07-26 14:01:52.458033
- Title: Improving the Generalization of Meta-learning on Unseen Domains via
Adversarial Shift
- Title(参考訳): 逆シフトによる未知領域におけるメタラーニングの一般化の改善
- Authors: Pinzhuo Tian, Yao Gao
- Abstract要約: ドメインシフトをシミュレートし、擬似タスクを生成する方法を学ぶためのモデルに依存しないシフト層を提案する。
擬似的なタスクに基づいて、メタ学習モデルはクロスドメインメタ知識を学習することができる。
- 参考スコア(独自算出の注目度): 3.1219977244201056
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Meta-learning provides a promising way for learning to efficiently learn and
achieves great success in many applications. However, most meta-learning
literature focuses on dealing with tasks from a same domain, making it brittle
to generalize to tasks from the other unseen domains. In this work, we address
this problem by simulating tasks from the other unseen domains to improve the
generalization and robustness of meta-learning method. Specifically, we propose
a model-agnostic shift layer to learn how to simulate the domain shift and
generate pseudo tasks, and develop a new adversarial learning-to-learn
mechanism to train it. Based on the pseudo tasks, the meta-learning model can
learn cross-domain meta-knowledge, which can generalize well on unseen domains.
We conduct extensive experiments under the domain generalization setting.
Experimental results demonstrate that the proposed shift layer is applicable to
various meta-learning frameworks. Moreover, our method also leads to
state-of-the-art performance on different cross-domain few-shot classification
benchmarks and produces good results on cross-domain few-shot regression.
- Abstract(参考訳): メタラーニングは、学習が効率的に学習し、多くのアプリケーションで大きな成功を収める、有望な方法を提供する。
しかし、ほとんどのメタラーニング文献は、同じドメインのタスクを扱うことに焦点を当てており、他の見えないドメインのタスクに一般化するのが脆弱である。
本研究では,他の未認識領域からタスクをシミュレートすることで,メタラーニング手法の一般化と堅牢性を改善することでこの問題に対処した。
具体的には、ドメインシフトをシミュレートし、擬似タスクを生成する方法を学ぶためのモデルに依存しないシフト層を提案し、それをトレーニングするための新しい逆学習学習機構を開発する。
擬似的なタスクに基づいて、メタ学習モデルはクロスドメインメタ知識を学習することができる。
領域一般化設定の下で広範な実験を行う。
実験の結果,提案するシフト層は様々なメタ学習フレームワークに適用できることがわかった。
さらに,本手法は,異なるドメイン間数ショット分類ベンチマークにおける最先端の性能も向上し,ドメイン間数ショット回帰に対して良好な結果が得られた。
関連論文リスト
- Learning to Generalize Unseen Domains via Multi-Source Meta Learning for Text Classification [71.08024880298613]
テキスト分類の多元的領域一般化について検討する。
本稿では、複数の参照ドメインを使用して、未知のドメインで高い精度を達成可能なモデルをトレーニングするフレームワークを提案する。
論文 参考訳(メタデータ) (2024-09-20T07:46:21Z) - Exploiting Style Transfer-based Task Augmentation for Cross-Domain
Few-Shot Learning [4.678020383205135]
ドメイン間の数ショット学習では、ソースドメインでトレーニングされたモデルは、ターゲットドメインへの一般化に苦労する。
本稿では,TAML(Task Augmented Meta-Learning)を提案する。
提案したTAMLは、トレーニングタスクのスタイルの多様性を高め、ドメインの一般化能力を向上したモデルのトレーニングに寄与する。
論文 参考訳(メタデータ) (2023-01-19T07:32:23Z) - Learn what matters: cross-domain imitation learning with task-relevant
embeddings [77.34726150561087]
自律エージェントが、異なる環境や異なるエージェントなど、異なる領域のデモンストレーションからタスクを実行することを学習する方法について検討する。
我々は、追加のデモンストレーションやさらなるドメイン知識にアクセスすることなく、クロスドメインの模倣学習を可能にするスケーラブルなフレームワークを提案する。
論文 参考訳(メタデータ) (2022-09-24T21:56:58Z) - Set-based Meta-Interpolation for Few-Task Meta-Learning [79.4236527774689]
そこで本研究では,メタトレーニングタスクの分散化を目的とした,ドメインに依存しないタスク拡張手法Meta-Interpolationを提案する。
様々な領域にまたがる8つのデータセットに対してメタ補間の有効性を実証的に検証した。
論文 参考訳(メタデータ) (2022-05-20T06:53:03Z) - Meta-Learning with Fewer Tasks through Task Interpolation [67.03769747726666]
現在のメタ学習アルゴリズムは多数のメタトレーニングタスクを必要としており、実際のシナリオではアクセスできない可能性がある。
タスクグラデーションを用いたメタラーニング(MLTI)により,タスクのペアをランダムにサンプリングし,対応する特徴やラベルを補間することにより,タスクを効果的に生成する。
実証的な実験では,提案する汎用MLTIフレームワークが代表的なメタ学習アルゴリズムと互換性があり,他の最先端戦略を一貫して上回っていることがわかった。
論文 参考訳(メタデータ) (2021-06-04T20:15:34Z) - Cross-Domain Few-Shot Classification via Adversarial Task Augmentation [16.112554109446204]
少数のショット分類は、各クラスのラベル付きサンプルがほとんどなく、見えないクラスを認識することを目的とする。
数ショット分類のためのメタラーニングモデルの多くは、そのようなタスクを解決するために様々なタスク共有帰納バイアス(メタ知識)を精巧に設計する。
本研究は,タスク強化による帰納バイアスの堅牢性向上を目的としている。
論文 参考訳(メタデータ) (2021-04-29T14:51:53Z) - Learning to Generalize Unseen Domains via Memory-based Multi-Source
Meta-Learning for Person Re-Identification [59.326456778057384]
本稿では,メモリベースのマルチソースメタラーニングフレームワークを提案する。
また,メタテスト機能を多様化するメタバッチ正規化層(MetaBN)を提案する。
実験により、M$3$Lは、目に見えない領域に対するモデルの一般化能力を効果的に向上できることが示された。
論文 参考訳(メタデータ) (2020-12-01T11:38:16Z) - MetaPerturb: Transferable Regularizer for Heterogeneous Tasks and
Architectures [61.73533544385352]
本稿ではメタパーターブ(MetaPerturb)というトランスファー可能な摂動モデルを提案する。
MetaPerturbは、レイヤやタスクにまたがる多様な分散を訓練したセット関数であるため、異種タスクやアーキテクチャを一般化することができる。
論文 参考訳(メタデータ) (2020-06-13T02:54:59Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。