論文の概要: Improved Active Multi-Task Representation Learning via Lasso
- arxiv url: http://arxiv.org/abs/2306.02556v1
- Date: Mon, 5 Jun 2023 03:08:29 GMT
- ステータス: 処理完了
- システム内更新日: 2023-06-06 17:09:08.434719
- Title: Improved Active Multi-Task Representation Learning via Lasso
- Title(参考訳): Lassoによるアクティブマルチタスク表現学習の改善
- Authors: Yiping Wang, Yifang Chen, Kevin Jamieson, Simon S. Du
- Abstract要約: 本稿では,L1-regularized-relevance-based(nu1$)戦略の優位性を示す。
また、サンプルコストに敏感な設定で$nu1$ベースの戦略の可能性を特徴付けます。
- 参考スコア(独自算出の注目度): 44.607652031235716
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: To leverage the copious amount of data from source tasks and overcome the
scarcity of the target task samples, representation learning based on
multi-task pretraining has become a standard approach in many applications.
However, up until now, most existing works design a source task selection
strategy from a purely empirical perspective. Recently, \citet{chen2022active}
gave the first active multi-task representation learning (A-MTRL) algorithm
which adaptively samples from source tasks and can provably reduce the total
sample complexity using the L2-regularized-target-source-relevance parameter
$\nu^2$. But their work is theoretically suboptimal in terms of total source
sample complexity and is less practical in some real-world scenarios where
sparse training source task selection is desired. In this paper, we address
both issues. Specifically, we show the strict dominance of the
L1-regularized-relevance-based ($\nu^1$-based) strategy by giving a lower bound
for the $\nu^2$-based strategy. When $\nu^1$ is unknown, we propose a practical
algorithm that uses the LASSO program to estimate $\nu^1$. Our algorithm
successfully recovers the optimal result in the known case. In addition to our
sample complexity results, we also characterize the potential of our
$\nu^1$-based strategy in sample-cost-sensitive settings. Finally, we provide
experiments on real-world computer vision datasets to illustrate the
effectiveness of our proposed method.
- Abstract(参考訳): ソースタスクからの膨大なデータを活用し,対象タスクサンプルの不足を克服するために,マルチタスク事前学習に基づく表現学習は多くのアプリケーションにおいて標準的アプローチとなっている。
しかしながら、これまでのほとんどの既存の作業は、純粋に経験的な観点からソースタスク選択戦略を設計する。
最近, \citet{chen2022active} は, L2-regularized-target-source-relevance parameter $\nu^2$ を用いて, ソースタスクから適応的にサンプルをサンプリングし, サンプル全体の複雑性を確実に低減できる,最初のアクティブマルチタスク表現学習アルゴリズム (A-MTRL) を提供した。
しかし、それらの研究は、全ソースサンプルの複雑さの観点からは理論的に最適であり、スパーストレーニングソースタスクの選択が望まれる現実のシナリオでは実用的ではない。
本稿では,両問題に対処する。
具体的には、l1-regularized-relevance-based ($\nu^1$-based)戦略に対して、$\nu^2$-based戦略の上限を低くすることで厳格に支配することを示す。
$\nu^1$が未知の場合、LASSOプログラムを用いて$\nu^1$を推定する実用的なアルゴリズムを提案する。
本アルゴリズムは既知の場合の最適結果の回復に成功している。
サンプル複雑性の結果に加えて、サンプルコストに敏感な設定において、$\nu^1$ベースの戦略の可能性も特徴付ける。
最後に,提案手法の有効性を示す実世界のコンピュータビジョンデータセットについて実験を行った。
関連論文リスト
- Scaling Distributed Multi-task Reinforcement Learning with Experience
Sharing [38.883540444516605]
DARPAはShELLプログラムを立ち上げた。これは、経験共有が分散生涯学習エージェントにどのように役立つかを探求することを目的としている。
分散マルチタスク強化学習(RL)の理論的および実証的研究を行い、N$エージェントのグループがM$タスクを協調的に解決する。
我々はDistMT-LSVIと呼ばれるアルゴリズムを提案し、各エージェントは独立に$epsilon$-optimal Policyを全ての$M$タスクに対して学習する。
論文 参考訳(メタデータ) (2023-07-11T22:58:53Z) - Active Representation Learning for General Task Space with Applications
in Robotics [44.36398212117328]
本稿では,テキスト対話型表現学習のためのアルゴリズムフレームワークを提案する。
この枠組みの下では、双線型および特徴ベースの非線形ケースから一般的な非線形ケースまで、いくつかのインスタンス化を提供する。
我々のアルゴリズムは平均で20%-70%のベースラインを上回ります。
論文 参考訳(メタデータ) (2023-06-15T08:27:50Z) - On the Sample Complexity of Representation Learning in Multi-task
Bandits with Global and Local structure [77.60508571062958]
マルチタスク・バンディット問題に対する最適アーム学習の複雑さについて検討した。
アームは2つのコンポーネントで構成されます。1つはタスク間で共有され(表現と呼ばれます)、もう1つはタスク固有のもの(予測器と呼ばれます)です。
サンプルの複雑さが下界に近づき、最大で$H(Glog(delta_G)+ Xlog(delta_H))$でスケールするアルゴリズムOSRL-SCを考案する。
論文 参考訳(メタデータ) (2022-11-28T08:40:12Z) - Active Multi-Task Representation Learning [50.13453053304159]
本研究は,アクティブラーニングの手法を活用することで,資源タスクのサンプリングに関する最初の公式な研究を行う。
提案手法は, 対象タスクに対する各ソースタスクの関連性を反復的に推定し, その関連性に基づいて各ソースタスクからサンプルを抽出するアルゴリズムである。
論文 参考訳(メタデータ) (2022-02-02T08:23:24Z) - Sample Efficient Linear Meta-Learning by Alternating Minimization [74.40553081646995]
低次元部分空間と回帰器を交互に学習する簡易交互最小化法(MLLAM)について検討する。
定数部分空間次元に対して、MLLAMはタスクあたり$Omega(log d)$サンプルしか必要とせず、ほぼ最適推定誤差が得られることを示す。
MLLAMと同様の強力な統計的保証を保証する新しいタスクサブセット選択スキームを提案する。
論文 参考訳(メタデータ) (2021-05-18T06:46:48Z) - Active$^2$ Learning: Actively reducing redundancies in Active Learning
methods for Sequence Tagging and Machine Translation [14.030275887949147]
アクティブラーニング(AL)戦略は、マニュアルアノテーションの少数の例を反復的に選択することで、大量のラベル付きデータの必要性を減らす。
本稿では,al戦略が個別に例を選択することから,学習過程に寄与しない類似の例を選択できる可能性について論じる。
提案手法であるActive$mathbf2$ Learning (A$mathbf2$L)は,このような冗長な例を排除するために,ディープラーニングモデルに積極的に適応する。
論文 参考訳(メタデータ) (2021-03-11T06:27:31Z) - Model-Based Multi-Agent RL in Zero-Sum Markov Games with Near-Optimal
Sample Complexity [67.02490430380415]
モデルに基づくMARLは、Nash平衡値(NE)を求めるために$tilde O(|S||B|(gamma)-3epsilon-2)$のサンプル複雑性を実現する。
また、アルゴリズムが報酬に依存しない場合、そのようなサンプル境界は最小値(対数因子まで)であり、アルゴリズムは報酬知識のない遷移サンプルを問合せする。
論文 参考訳(メタデータ) (2020-07-15T03:25:24Z) - A Provably Efficient Sample Collection Strategy for Reinforcement
Learning [123.69175280309226]
オンライン強化学習(RL)における課題の1つは、エージェントがその振る舞いを最適化するために、環境の探索とサンプルの活用をトレードオフする必要があることである。
1) 生成モデル(環境のスパースシミュレータなど)にアクセス可能な状態のサンプル数を規定する「対象別」アルゴリズム,2) 所定のサンプルをできるだけ早く生成する「対象別」サンプル収集。
論文 参考訳(メタデータ) (2020-07-13T15:17:35Z) - Task-agnostic Exploration in Reinforcement Learning [35.403304641170386]
タスクに依存しない効率的な強化学習アルゴリズムtextscUCBZero を提案する。
少なくとも$tilde O(log(N)H5SA/epsilon2)$ Exploring episodesの後、$N$の任意のタスクに対して$epsilon$-optimal Policyを見つける。
また、$Omega(log (N)H2SA/epsilon2)$ lower boundを提供し、$N$への$log$依存性が避けられないことを示す。
論文 参考訳(メタデータ) (2020-06-16T20:23:41Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。