論文の概要: ST-MAML: A Stochastic-Task based Method for Task-Heterogeneous
Meta-Learning
- arxiv url: http://arxiv.org/abs/2109.13305v1
- Date: Mon, 27 Sep 2021 18:54:50 GMT
- ステータス: 処理完了
- システム内更新日: 2021-09-29 14:56:40.125714
- Title: ST-MAML: A Stochastic-Task based Method for Task-Heterogeneous
Meta-Learning
- Title(参考訳): st-maml:タスクヘテロジェンシーメタラーニングのための確率的タスクベース手法
- Authors: Zhe Wang, Jake Grigsby, Arshdeep Sekhon, Yanjun Qi
- Abstract要約: 本稿では,モデルに依存しないメタラーニング(MAML)を複数のタスク分布から学習するための新しい手法ST-MAMLを提案する。
そこで本研究では,ST-MAMLが2つの画像分類タスク,1つの曲線評価ベンチマーク,1つの画像補完問題,および実世界の温度予測アプリケーションにおいて,最先端の映像分類タスクに適合または優れることを示す。
- 参考スコア(独自算出の注目度): 12.215288736524268
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Optimization-based meta-learning typically assumes tasks are sampled from a
single distribution - an assumption oversimplifies and limits the diversity of
tasks that meta-learning can model. Handling tasks from multiple different
distributions is challenging for meta-learning due to a so-called task
ambiguity issue. This paper proposes a novel method, ST-MAML, that empowers
model-agnostic meta-learning (MAML) to learn from multiple task distributions.
ST-MAML encodes tasks using a stochastic neural network module, that summarizes
every task with a stochastic representation. The proposed Stochastic Task (ST)
strategy allows a meta-model to get tailored for the current task and enables
us to learn a distribution of solutions for an ambiguous task. ST-MAML also
propagates the task representation to revise the encoding of input variables.
Empirically, we demonstrate that ST-MAML matches or outperforms the
state-of-the-art on two few-shot image classification tasks, one curve
regression benchmark, one image completion problem, and a real-world
temperature prediction application. To the best of authors' knowledge, this is
the first time optimization-based meta-learning method being applied on a
large-scale real-world task.
- Abstract(参考訳): 最適化に基づくメタ学習は、一般的にタスクが単一のディストリビューションからサンプリングされていると仮定する。
複数の異なるディストリビューションからのタスクの処理は、いわゆるタスクあいまいさの問題によってメタラーニングでは困難である。
本稿では,モデルに依存しないメタラーニング(MAML)を複数のタスク分布から学習するための新しい手法ST-MAMLを提案する。
ST-MAMLは確率的ニューラルネットワークモジュールを使用してタスクをエンコードする。
提案したStochastic Task (ST) 戦略により、メタモデルは現在のタスクに合わせて調整され、あいまいなタスクに対するソリューションの分布を学習することができる。
ST-MAMLはまた、入力変数のエンコーディングを修正するためにタスク表現を伝搬する。
実験では,st-mamlが2つの数ショット画像分類タスク,曲線回帰ベンチマーク,1つの画像補完問題,実世界の温度予測アプリケーションと一致し,その性能を上回っていることを示す。
著者の知る限りでは、大規模な実世界のタスクに最適化に基づくメタラーニング手法が適用されたのはこれが初めてである。
関連論文リスト
- MetaGPT: Merging Large Language Models Using Model Exclusive Task Arithmetic [6.46176287368784]
textbfGPTスケールモデルをマージするための textbfModel textbfExclusive textbfTask textbfArithmetic を提案する。
提案するMetaGPTは,データに依存しず,検索処理を回避し,低コストで実装が容易なメタGPTである。
論文 参考訳(メタデータ) (2024-06-17T10:12:45Z) - Task-Distributionally Robust Data-Free Meta-Learning [99.56612787882334]
Data-Free Meta-Learning (DFML)は、複数の事前学習モデルを活用することで、独自のトレーニングデータを必要とせずに、新しいタスクを効率的に学習することを目的としている。
TDS(Task-Distribution Shift)とTDC(Task-Distribution Corruption)の2つの大きな課題を初めて明らかにした。
論文 参考訳(メタデータ) (2023-11-23T15:46:54Z) - Meta-Reinforcement Learning Based on Self-Supervised Task Representation
Learning [23.45043290237396]
MoSSは、自己監督型タスク表現学習に基づくコンテキストベースメタ強化学習アルゴリズムである。
MuJoCoとMeta-Worldのベンチマークでは、MoSSはパフォーマンス、サンプル効率(3-50倍高速)、適応効率、一般化の点で先行して性能が向上している。
論文 参考訳(メタデータ) (2023-04-29T15:46:19Z) - The Effect of Diversity in Meta-Learning [79.56118674435844]
少ないショット学習は、少数の例から見れば、新しいタスクに対処できる表現を学習することを目的としている。
近年の研究では,タスク分布がモデルの性能に重要な役割を担っていることが示されている。
タスクの多様性がメタ学習アルゴリズムに与える影響を評価するために,多種多様なモデルとデータセットのタスク分布について検討する。
論文 参考訳(メタデータ) (2022-01-27T19:39:07Z) - Meta-learning with an Adaptive Task Scheduler [93.63502984214918]
既存のメタ学習アルゴリズムは、一様確率でランダムにメタトレーニングタスクをサンプリングする。
タスクは、限られた数のメタトレーニングタスクを考えると、ノイズや不均衡に有害である可能性が高い。
メタトレーニングプロセスのための適応タスクスケジューラ(ATS)を提案する。
論文 参考訳(メタデータ) (2021-10-26T22:16:35Z) - Meta-Learning with Fewer Tasks through Task Interpolation [67.03769747726666]
現在のメタ学習アルゴリズムは多数のメタトレーニングタスクを必要としており、実際のシナリオではアクセスできない可能性がある。
タスクグラデーションを用いたメタラーニング(MLTI)により,タスクのペアをランダムにサンプリングし,対応する特徴やラベルを補間することにより,タスクを効果的に生成する。
実証的な実験では,提案する汎用MLTIフレームワークが代表的なメタ学習アルゴリズムと互換性があり,他の最先端戦略を一貫して上回っていることがわかった。
論文 参考訳(メタデータ) (2021-06-04T20:15:34Z) - Energy-Efficient and Federated Meta-Learning via Projected Stochastic
Gradient Ascent [79.58680275615752]
エネルギー効率のよいメタラーニングフレームワークを提案する。
各タスクは別々のエージェントによって所有されていると仮定するため、メタモデルをトレーニングするために限られたタスクが使用される。
論文 参考訳(メタデータ) (2021-05-31T08:15:44Z) - A Nested Bi-level Optimization Framework for Robust Few Shot Learning [10.147225934340877]
NestedMAMLはトレーニングタスクやインスタンスに重みを割り当てることを学ぶ。
合成および実世界のデータセットの実験では、NestedMAMLは「不要な」タスクやインスタンスの効果を効率的に緩和している。
論文 参考訳(メタデータ) (2020-11-13T06:41:22Z) - Adaptive Task Sampling for Meta-Learning [79.61146834134459]
数ショットの分類のためのメタラーニングの鍵となるアイデアは、テスト時に直面した数ショットの状況を模倣することである。
一般化性能を向上させるための適応型タスクサンプリング手法を提案する。
論文 参考訳(メタデータ) (2020-07-17T03:15:53Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。