論文の概要: Provable Lifelong Learning of Representations
- arxiv url: http://arxiv.org/abs/2110.14098v1
- Date: Wed, 27 Oct 2021 00:41:23 GMT
- ステータス: 処理完了
- システム内更新日: 2021-10-28 12:30:18.589181
- Title: Provable Lifelong Learning of Representations
- Title(参考訳): 表現の生涯学習を証明できる
- Authors: Xinyuan Cao, Weiyang Liu, Santosh S. Vempala
- Abstract要約: そこで本研究では,内部特徴表現を保守・洗練する,証明可能な生涯学習アルゴリズムを提案する。
すべてのタスクにおける任意の所望の精度に対して、表現の次元は、基礎となる表現の次元に近いままであることを示す。
- 参考スコア(独自算出の注目度): 21.440845049501778
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In lifelong learning, the tasks (or classes) to be learned arrive
sequentially over time in arbitrary order. During training, knowledge from
previous tasks can be captured and transferred to subsequent ones to improve
sample efficiency. We consider the setting where all target tasks can be
represented in the span of a small number of unknown linear or nonlinear
features of the input data. We propose a provable lifelong learning algorithm
that maintains and refines the internal feature representation. We prove that
for any desired accuracy on all tasks, the dimension of the representation
remains close to that of the underlying representation. The resulting sample
complexity improves significantly on existing bounds. In the setting of linear
features, our algorithm is provably efficient and the sample complexity for
input dimension $d$, $m$ tasks with $k$ features up to error $\epsilon$ is
$\tilde{O}(dk^{1.5}/\epsilon+km/\epsilon)$. We also prove a matching lower
bound for any lifelong learning algorithm that uses a single task learner as a
black box. Finally, we complement our analysis with an empirical study.
- Abstract(参考訳): 生涯学習では、学習すべきタスク(またはクラス)は、任意の順序で時間とともに順次到着する。
トレーニング中、以前のタスクからの知識をキャプチャして、その後のタスクに転送することで、サンプル効率を向上させることができる。
入力データの少数の未知の線形的・非線形的特徴の範囲内で、全ての目標タスクを表現できるような設定を考察する。
そこで本研究では,内部特徴表現を保守・洗練する,証明可能な生涯学習アルゴリズムを提案する。
すべてのタスクにおいて所望の正確さのために、表現の次元は基礎となる表現の次元に近いことが証明される。
その結果、サンプルの複雑さは既存の境界で大幅に改善される。
線形特徴量の設定では、アルゴリズムは有理効率であり、入力次元のサンプル複雑性は$d$, $m$タスクで、$k$ はエラーまで$\epsilon$は$\tilde{o}(dk^{1.5}/\epsilon+km/\epsilon)$である。
また,1つのタスク学習器をブラックボックスとして使用する生涯学習アルゴリズムに対して,マッチングローバウンドを証明した。
最後に,実験的な研究で解析を補完する。
関連論文リスト
- Efficiently Learning One-Hidden-Layer ReLU Networks via Schur
Polynomials [50.90125395570797]
正方形損失に関して、標準的なガウス分布の下での$k$ReLU活性化の線形結合をPAC学習する問題をmathbbRd$で検討する。
本研究の主な成果は,この学習課題に対して,サンプルおよび計算複雑性が$(dk/epsilon)O(k)$で,epsilon>0$が目標精度である。
論文 参考訳(メタデータ) (2023-07-24T14:37:22Z) - Provable Multi-Task Representation Learning by Two-Layer ReLU Neural Networks [69.38572074372392]
本稿では,複数タスクにおける非線形モデルを用いたトレーニング中に特徴学習が発生することを示す最初の結果を示す。
私たちのキーとなる洞察は、マルチタスク事前トレーニングは、通常タスク間で同じラベルを持つポイントを整列する表現を好む擬似コントラスト的損失を誘導するということです。
論文 参考訳(メタデータ) (2023-07-13T16:39:08Z) - Active Representation Learning for General Task Space with Applications
in Robotics [44.36398212117328]
本稿では,テキスト対話型表現学習のためのアルゴリズムフレームワークを提案する。
この枠組みの下では、双線型および特徴ベースの非線形ケースから一般的な非線形ケースまで、いくつかのインスタンス化を提供する。
我々のアルゴリズムは平均で20%-70%のベースラインを上回ります。
論文 参考訳(メタデータ) (2023-06-15T08:27:50Z) - On the Sample Complexity of Representation Learning in Multi-task
Bandits with Global and Local structure [77.60508571062958]
マルチタスク・バンディット問題に対する最適アーム学習の複雑さについて検討した。
アームは2つのコンポーネントで構成されます。1つはタスク間で共有され(表現と呼ばれます)、もう1つはタスク固有のもの(予測器と呼ばれます)です。
サンプルの複雑さが下界に近づき、最大で$H(Glog(delta_G)+ Xlog(delta_H))$でスケールするアルゴリズムOSRL-SCを考案する。
論文 参考訳(メタデータ) (2022-11-28T08:40:12Z) - Provably Efficient Lifelong Reinforcement Learning with Linear Function
Approximation [41.460894569204065]
線形文脈マルコフ決定過程(MDP)の遺残条件における生涯強化学習(RL)について検討する。
本稿では, UCB Lifelong Value Distillation (UCBlvd) と呼ばれるアルゴリズムを提案する。
論文 参考訳(メタデータ) (2022-06-01T06:53:28Z) - Randomized Exploration for Reinforcement Learning with General Value
Function Approximation [122.70803181751135]
本稿では,ランダム化最小二乗値反復(RLSVI)アルゴリズムに着想を得たモデルレス強化学習アルゴリズムを提案する。
提案アルゴリズムは,スカラーノイズを用いたトレーニングデータを簡易に摂動させることにより,探索を促進する。
我々はこの理論を、既知の困難な探査課題にまたがる実証的な評価で補完する。
論文 参考訳(メタデータ) (2021-06-15T02:23:07Z) - Sample Efficient Linear Meta-Learning by Alternating Minimization [74.40553081646995]
低次元部分空間と回帰器を交互に学習する簡易交互最小化法(MLLAM)について検討する。
定数部分空間次元に対して、MLLAMはタスクあたり$Omega(log d)$サンプルしか必要とせず、ほぼ最適推定誤差が得られることを示す。
MLLAMと同様の強力な統計的保証を保証する新しいタスクサブセット選択スキームを提案する。
論文 参考訳(メタデータ) (2021-05-18T06:46:48Z) - Learning Halfspaces With Membership Queries [0.0]
アクティブな学習は、アルゴリズムが見る必要があるサンプルの数で指数関数的な増加をもたらすこともある。
このアルゴリズムは実際にうまく動作し,不確実性サンプリングを著しく上回っている。
論文 参考訳(メタデータ) (2020-12-20T18:02:47Z) - Predicting What You Already Know Helps: Provable Self-Supervised
Learning [60.27658820909876]
自己教師付き表現学習は、ラベル付きデータを必要としない補助的な予測タスク(プリテキストタスクと呼ばれる)を解決する。
本研究では,特定のエミュレーションに基づくプレテキストタスク間の統計的関係を利用して,優れた表現を学習することを保証する機構を示す。
複素基底真理関数クラスにおいても線形層は近似誤差が小さいことを証明した。
論文 参考訳(メタデータ) (2020-08-03T17:56:13Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。