論文の概要: Learning Tensor Representations for Meta-Learning
- arxiv url: http://arxiv.org/abs/2201.07348v1
- Date: Tue, 18 Jan 2022 23:01:35 GMT
- ステータス: 処理完了
- システム内更新日: 2022-01-21 00:02:22.002587
- Title: Learning Tensor Representations for Meta-Learning
- Title(参考訳): メタラーニングのための学習テンソル表現
- Authors: Samuel Deng, Yilin Guo, Daniel Hsu, and Debmalya Mandal
- Abstract要約: 多様なタスクの集合からメタラーニングのための共有表現のテンソルモデルを導入する。
最初のステップから推定テンソルを置換することで、新しいタスクのごくわずかなサンプルでタスク固有のパラメータを推定できる。
- 参考スコア(独自算出の注目度): 8.185750946886001
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We introduce a tensor-based model of shared representation for meta-learning
from a diverse set of tasks. Prior works on learning linear representations for
meta-learning assume that there is a common shared representation across
different tasks, and do not consider the additional task-specific observable
side information. In this work, we model the meta-parameter through an
order-$3$ tensor, which can adapt to the observed task features of the task. We
propose two methods to estimate the underlying tensor. The first method solves
a tensor regression problem and works under natural assumptions on the data
generating process. The second method uses the method of moments under
additional distributional assumptions and has an improved sample complexity in
terms of the number of tasks.
We also focus on the meta-test phase, and consider estimating task-specific
parameters on a new task. Substituting the estimated tensor from the first step
allows us estimating the task-specific parameters with very few samples of the
new task, thereby showing the benefits of learning tensor representations for
meta-learning. Finally, through simulation and several real-world datasets, we
evaluate our methods and show that it improves over previous linear models of
shared representations for meta-learning.
- Abstract(参考訳): 多様なタスクの集合からメタラーニングのための共有表現のテンソルモデルを導入する。
メタラーニングのための線形表現の学習は、異なるタスクに共通する共有表現が存在すると仮定し、追加のタスク固有の可観測側情報を考慮しない。
この研究では、タスクの観察されたタスクの特徴に適応できる3ドルのテンソルでメタパラメータをモデル化します。
基礎となるテンソルを推定する2つの方法を提案する。
第1の方法はテンソル回帰問題を解き、データ生成過程の自然な仮定の下で働く。
第2の方法は、追加の分布仮定の下でモーメント法を用い、タスク数の観点からサンプルの複雑さを改善した。
また,メタテストフェーズに注目し,タスク固有のパラメータを新しいタスクで推定する。
最初のステップから推定テンソルを置換することで、新しいタスクのごくわずかなサンプルでタスク固有のパラメータを推定できるため、メタラーニングのためのテンソル表現の学習の利点が示されます。
最後に,シミュレーションと実世界のいくつかのデータセットを用いて,提案手法を評価し,メタラーニングのための共有表現の以前の線形モデルよりも改善したことを示す。
関連論文リスト
- Parameter-Efficient and Memory-Efficient Tuning for Vision Transformer: A Disentangled Approach [87.8330887605381]
本稿では,学習可能なパラメータをわずかに限定して,事前学習した視覚変換器を下流認識タスクに適用する方法を示す。
学習可能で軽量なモジュールを用いてタスク固有のクエリを合成する。
本手法はメモリ制約下での最先端性能を実現し,実環境における適用性を示す。
論文 参考訳(メタデータ) (2024-07-09T15:45:04Z) - Gradient-Based Meta-Learning Using Uncertainty to Weigh Loss for
Few-Shot Learning [5.691930884128995]
Model-Agnostic Meta-Learning (MAML)は、数発の学習において最も成功したメタラーニング手法の1つである。
タスク固有の学習者に対して,タスクの損失を最小限に抑えるパラメータの選択を適応的に学習する手法を提案する。
メソッド1はメタロス差を比較して重みを生成し、クラスが少ない場合の精度を向上させる。
方法2は、各タスクの相補的不確実性を導入し、元の勾配降下に基づいて複数の損失を重み付けする。
論文 参考訳(メタデータ) (2022-08-17T08:11:51Z) - The Effect of Diversity in Meta-Learning [79.56118674435844]
少ないショット学習は、少数の例から見れば、新しいタスクに対処できる表現を学習することを目的としている。
近年の研究では,タスク分布がモデルの性能に重要な役割を担っていることが示されている。
タスクの多様性がメタ学習アルゴリズムに与える影響を評価するために,多種多様なモデルとデータセットのタスク分布について検討する。
論文 参考訳(メタデータ) (2022-01-27T19:39:07Z) - A Representation Learning Perspective on the Importance of
Train-Validation Splitting in Meta-Learning [14.720411598827365]
各タスクからのデータを、メタトレーニング中にトレインとバリデーションセットに分割する。
列車価分割は,表現性を損なうことなく,学習した表現を低ランクにすることを促すと論じる。
サンプル効率は低ランク性から恩恵を受けるため、分割戦略は見当たらないテストタスクを解決するのに非常に少数のサンプルを必要とする。
論文 参考訳(メタデータ) (2021-06-29T17:59:33Z) - Conditional Meta-Learning of Linear Representations [57.90025697492041]
表現学習のための標準メタラーニングは、複数のタスク間で共有される共通の表現を見つけることを目的とする。
本研究では,タスクの側情報を手作業に適した表現にマッピングし,条件付け関数を推定することで,この問題を克服する。
この利点を実用的に活用できるメタアルゴリズムを提案する。
論文 参考訳(メタデータ) (2021-03-30T12:02:14Z) - Meta-Regularization by Enforcing Mutual-Exclusiveness [0.8057006406834467]
本稿では,メタ学習時の情報フローをモデル設計者が制御できるように,メタ学習モデルの正規化手法を提案する。
提案した正規化関数は,Omniglotデータセット上で$sim$$36%の精度向上を示す。
論文 参考訳(メタデータ) (2021-01-24T22:57:19Z) - Learning Invariant Representation for Continual Learning [5.979373021392084]
継続的学習の重要な課題は、エージェントが新しいタスクに直面したときに、以前に学んだタスクを壊滅的に忘れることです。
連続学習のための学習不変表現(IRCL)という新しい擬似リハーサル法を提案する。
共有不変表現を分離することは、タスクのシーケンスを継続的に学習するのに役立つ。
論文 参考訳(メタデータ) (2021-01-15T15:12:51Z) - Improving Generalization in Meta-learning via Task Augmentation [69.83677015207527]
本稿ではMetaMixとChannel Shuffleの2つのタスク拡張手法を提案する。
MetaMixとChannel Shuffleはどちらも、多くのデータセットにまたがる大きなマージンによって、最先端の結果を上回っている。
論文 参考訳(メタデータ) (2020-07-26T01:50:42Z) - Adaptive Task Sampling for Meta-Learning [79.61146834134459]
数ショットの分類のためのメタラーニングの鍵となるアイデアは、テスト時に直面した数ショットの状況を模倣することである。
一般化性能を向上させるための適応型タスクサンプリング手法を提案する。
論文 参考訳(メタデータ) (2020-07-17T03:15:53Z) - Incremental Meta-Learning via Indirect Discriminant Alignment [118.61152684795178]
メタ学習のメタ学習段階において,段階的な学習の概念を発達させる。
我々のアプローチは、完全なメタトレーニングセットでモデルをトレーニングするのと比べて、テスト時に好適に機能する。
論文 参考訳(メタデータ) (2020-02-11T01:39:12Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。