論文の概要: The Sample Complexity of Meta Sparse Regression
- arxiv url: http://arxiv.org/abs/2002.09587v2
- Date: Sun, 21 Jun 2020 18:35:21 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-29 18:43:11.343654
- Title: The Sample Complexity of Meta Sparse Regression
- Title(参考訳): メタスパース回帰のサンプル複雑性
- Authors: Zhanyu Wang and Jean Honorio
- Abstract要約: 本稿では,無限タスクによる疎線形回帰におけるメタラーニング問題に対処する。
T in O ((k log(p) ) /l ) タスクが全タスクの共通サポートを回復するのに十分であることを示す。
- 参考スコア(独自算出の注目度): 38.092179552223364
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: This paper addresses the meta-learning problem in sparse linear regression
with infinite tasks. We assume that the learner can access several similar
tasks. The goal of the learner is to transfer knowledge from the prior tasks to
a similar but novel task. For p parameters, size of the support set k , and l
samples per task, we show that T \in O (( k log(p) ) /l ) tasks are sufficient
in order to recover the common support of all tasks. With the recovered
support, we can greatly reduce the sample complexity for estimating the
parameter of the novel task, i.e., l \in O (1) with respect to T and p . We
also prove that our rates are minimax optimal. A key difference between
meta-learning and the classical multi-task learning, is that meta-learning
focuses only on the recovery of the parameters of the novel task, while
multi-task learning estimates the parameter of all tasks, which requires l to
grow with T . Instead, our efficient meta-learning estimator allows for l to be
constant with respect to T (i.e., few-shot learning).
- Abstract(参考訳): 本稿では,無限課題を持つ疎線形回帰におけるメタラーニング問題を扱う。
学習者はいくつかの類似したタスクにアクセスできると仮定する。
学習者のゴールは、以前のタスクから同じようなが新しいタスクに知識を移すことである。
p のパラメータに対して、タスク毎のサポートセット k と l のサンプルのサイズは、T \in O ((k log(p) ) /l ) タスクが全てのタスクの共通サポートを回復するのに十分であることを示す。
得られたサポートにより、新しいタスクのパラメータ、すなわち、T および p に関する l \in O (1) を推定する際のサンプルの複雑さを大幅に低減することができる。
また、私たちのレートがミニマックス最適であることも証明します。
メタ学習と古典的マルチタスク学習の主な違いは、メタ学習が新しいタスクのパラメータの回復のみに焦点を当てているのに対して、マルチタスク学習は全てのタスクのパラメータを推定する。
代わりに、我々の効率的なメタ学習推定器は、T に関して l を一定にすることができる(すなわち、少数ショット学習)。
関連論文リスト
- Mitigating Task Interference in Multi-Task Learning via Explicit Task
Routing with Non-Learnable Primitives [19.90788777476128]
マルチタスク学習(MTL)は、タスク間の共有情報を活用することで、複数のタスクを達成するための単一のモデルを学ぶことを目指している。
既存のMLLモデルはタスク間の負の干渉に悩まされていることが知られている。
本研究では,非学習可能なプリミティブと明示的なタスクルーティングの相乗的組み合わせによるタスク干渉を軽減するためのETR-NLPを提案する。
論文 参考訳(メタデータ) (2023-08-03T22:34:16Z) - Multitask Learning with No Regret: from Improved Confidence Bounds to
Active Learning [79.07658065326592]
推定タスクの不確実性の定量化は、オンラインやアクティブな学習など、多くの下流アプリケーションにとって重要な課題である。
タスク間の類似性やタスクの特徴を学習者に提供できない場合、課題設定において新しいマルチタスク信頼区間を提供する。
本稿では,このパラメータを事前に知らないまま,このような改善された後悔を実現する新しいオンライン学習アルゴリズムを提案する。
論文 参考訳(メタデータ) (2023-08-03T13:08:09Z) - Task Difficulty Aware Parameter Allocation & Regularization for Lifelong
Learning [20.177260510548535]
本稿では,その学習困難度に基づいてパラメータ割り当てと正規化から各タスクに適した戦略を適応的に選択するAllocation & Regularization (PAR)を提案する。
提案手法はスケーラビリティが高く,モデルの冗長性を著しく低減し,モデルの性能を向上する。
論文 参考訳(メタデータ) (2023-04-11T15:38:21Z) - AdaTask: A Task-aware Adaptive Learning Rate Approach to Multi-task
Learning [19.201899503691266]
このパラメータ上の各タスクの総更新によって、パラメータのタスク支配度を測定する。
本稿では,各タスクの強調勾配と学習率を分離するタスクワイド適応学習率アプローチであるAdaTaskを提案する。
コンピュータビジョンとレコメンダシステムMTLデータセットの実験は、AdaTaskが支配的なタスクのパフォーマンスを大幅に改善することを示した。
論文 参考訳(メタデータ) (2022-11-28T04:24:38Z) - Analysis and Prediction of NLP Models Via Task Embeddings [25.311690222754454]
我々は101ドルのNLPタスクのコレクションであるMetaEvalを提案する。
学習した埋め込みを条件にしながら、単一のトランスフォーマーをすべてのMetaEvalタスクに共同で適合させます。
結果として生じるタスクの埋め込みは、タスクの空間の新たな分析を可能にする。
論文 参考訳(メタデータ) (2021-12-10T16:23:24Z) - New Tight Relaxations of Rank Minimization for Multi-Task Learning [161.23314844751556]
2つの正規化項に基づく2つの新しいマルチタスク学習定式化を提案する。
本手法は,タスク間で共有される低ランク構造を正確に復元し,関連するマルチタスク学習方法より優れていることを示す。
論文 参考訳(メタデータ) (2021-12-09T07:29:57Z) - Instance-Level Task Parameters: A Robust Multi-task Weighting Framework [17.639472693362926]
最近の研究によると、ディープニューラルネットワークは、複数の関連するタスク間で共有表現を学習することで、マルチタスク学習の恩恵を受けている。
トレーニングプロセスは、データセットの各インスタンスに対するタスクの最適な重み付けを規定します。
我々は,SURREALとCityScapesのデータセットを用いて,人間の形状とポーズ推定,深さ推定,セマンティックセグメンテーションタスクについて広範な実験を行った。
論文 参考訳(メタデータ) (2021-06-11T02:35:42Z) - Sample Efficient Linear Meta-Learning by Alternating Minimization [74.40553081646995]
低次元部分空間と回帰器を交互に学習する簡易交互最小化法(MLLAM)について検討する。
定数部分空間次元に対して、MLLAMはタスクあたり$Omega(log d)$サンプルしか必要とせず、ほぼ最適推定誤差が得られることを示す。
MLLAMと同様の強力な統計的保証を保証する新しいタスクサブセット選択スキームを提案する。
論文 参考訳(メタデータ) (2021-05-18T06:46:48Z) - Variable-Shot Adaptation for Online Meta-Learning [123.47725004094472]
従来のタスクから静的データにまたがるメタラーニングによって,少数の固定された例から新しいタスクを学習する問題について検討する。
メタラーニングは,従来の教師付き手法に比べて,ラベルの総数が少なく,累積性能も高いタスクセットを解く。
これらの結果から,メタラーニングは,一連の問題を継続的に学習し,改善する学習システムを構築する上で重要な要素であることが示唆された。
論文 参考訳(メタデータ) (2020-12-14T18:05:24Z) - Meta Reinforcement Learning with Autonomous Inference of Subtask
Dependencies [57.27944046925876]
本稿では,タスクがサブタスクグラフによって特徴づけられるような,新しい数発のRL問題を提案し,対処する。
メタ政治を直接学習する代わりに、Subtask Graph Inferenceを使ったメタラーナーを開発した。
実験の結果,2つのグリッドワールド領域とStarCraft II環境において,提案手法が潜在タスクパラメータを正確に推定できることが確認された。
論文 参考訳(メタデータ) (2020-01-01T17:34:00Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。