論文の概要: Learning-to-learn non-convex piecewise-Lipschitz functions
- arxiv url: http://arxiv.org/abs/2108.08770v1
- Date: Thu, 19 Aug 2021 16:22:48 GMT
- ステータス: 処理完了
- システム内更新日: 2021-08-20 16:13:05.487264
- Title: Learning-to-learn non-convex piecewise-Lipschitz functions
- Title(参考訳): 学習から学習までの非凸片方向Lipschitz関数
- Authors: Maria-Florina Balcan, Mikhail Khodak, Dravyansh Sharma, Ameet
Talwalkar
- Abstract要約: 両機械学習アルゴリズムに適用可能な非タスクであるピースワイズ・リプシッツ関数に対するアルゴリズムのメタラーニングを分析する。
複数のオンライン学習タスクからアルゴリズムのステップサイズの両方を学習する実用的なメタ学習手法を提案する。
- 参考スコア(独自算出の注目度): 44.6133187924678
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We analyze the meta-learning of the initialization and step-size of learning
algorithms for piecewise-Lipschitz functions, a non-convex setting with
applications to both machine learning and algorithms. Starting from recent
regret bounds for the exponential forecaster on losses with dispersed
discontinuities, we generalize them to be initialization-dependent and then use
this result to propose a practical meta-learning procedure that learns both the
initialization and the step-size of the algorithm from multiple online learning
tasks. Asymptotically, we guarantee that the average regret across tasks scales
with a natural notion of task-similarity that measures the amount of overlap
between near-optimal regions of different tasks. Finally, we instantiate the
method and its guarantee in two important settings: robust meta-learning and
multi-task data-driven algorithm design.
- Abstract(参考訳): 我々は,機械学習とアルゴリズムの両方に適用可能な非凸設定であるLipschitz関数の初期化とステップサイズ学習アルゴリズムのメタラーニングを分析した。
分散不連続を伴う損失の指数関数予測器に対する最近の後悔の限界から始まり、それらを初期化依存に一般化し、この結果を用いて複数のオンライン学習タスクからアルゴリズムの初期化とステップサイズの両方を学ぶ実用的なメタラーニング手順を提案する。
漸近的に、タスク間の平均的後悔は、タスク間のほぼ最適領域間の重複量を測定するタスク類似性の自然な概念でスケールすることを保証します。
最後に、ロバストなメタラーニングとマルチタスクデータ駆動アルゴリズム設計という2つの重要な設定で、メソッドとその保証をインスタンス化する。
関連論文リスト
- Continual Learning of Numerous Tasks from Long-tail Distributions [17.706669222987273]
継続的な学習は、以前獲得した知識を維持しながら、新しいタスクを学習し、適応するモデルの開発に焦点を当てる。
既存の連続学習アルゴリズムは、通常、一定の大きさの少数のタスクを伴い、現実世界の学習シナリオを正確に表現しないことがある。
本稿では,従来のタスクから第2モーメントの重み付け平均を維持することで,アダムの状態を再利用する手法を提案する。
提案手法は,既存のほとんどの連続学習アルゴリズムと互換性があり,少ない計算量やメモリコストで忘れを効果的に削減できることを実証する。
論文 参考訳(メタデータ) (2024-04-03T13:56:33Z) - Representation Learning with Multi-Step Inverse Kinematics: An Efficient
and Optimal Approach to Rich-Observation RL [106.82295532402335]
既存の強化学習アルゴリズムは、計算的難易度、強い統計的仮定、最適なサンプルの複雑さに悩まされている。
所望の精度レベルに対して、レート最適サンプル複雑性を実現するための、最初の計算効率の良いアルゴリズムを提供する。
我々のアルゴリズムMusIKは、多段階の逆運動学に基づく表現学習と体系的な探索を組み合わせる。
論文 参考訳(メタデータ) (2023-04-12T14:51:47Z) - Multi-Task Learning with Prior Information [5.770309971945476]
本稿では,機能間の関係に関する事前知識を利用するマルチタスク学習フレームワークを提案する。
また、各特徴に対して変化する係数に対してペナルティを課し、それらの共通する特徴に類似した係数を持つことを保証します。
論文 参考訳(メタデータ) (2023-01-04T12:48:05Z) - Improved Algorithms for Neural Active Learning [74.89097665112621]
非パラメトリックストリーミング設定のためのニューラルネットワーク(NN)ベースの能動学習アルゴリズムの理論的および経験的性能を改善する。
本研究では,SOTA(State-of-the-art (State-the-art)) 関連研究で使用されるものよりも,アクティブラーニングに適する人口減少を最小化することにより,2つの後悔の指標を導入する。
論文 参考訳(メタデータ) (2022-10-02T05:03:38Z) - Algorithms that Approximate Data Removal: New Results and Limitations [2.6905021039717987]
本研究では,経験的リスク最小化を用いて学習した機械学習モデルからユーザデータを削除することの問題点について検討する。
計算とメモリ効率を両立させるオンラインアンラーニングアルゴリズムを開発した。
論文 参考訳(メタデータ) (2022-09-25T17:20:33Z) - Stabilizing Q-learning with Linear Architectures for Provably Efficient
Learning [53.17258888552998]
本研究では,線形関数近似を用いた基本的な$Q$-learningプロトコルの探索変種を提案する。
このアルゴリズムの性能は,新しい近似誤差というより寛容な概念の下で,非常に優雅に低下することを示す。
論文 参考訳(メタデータ) (2022-06-01T23:26:51Z) - Multi-task Supervised Learning via Cross-learning [102.64082402388192]
我々は,様々なタスクを解くことを目的とした回帰関数の集合を適合させることで,マルチタスク学習と呼ばれる問題を考える。
我々の新しい定式化では、これらの関数のパラメータを2つに分けて、互いに近づきながらタスク固有のドメインで学習する。
これにより、異なるドメインにまたがって収集されたデータが、互いのタスクにおける学習パフォーマンスを改善するのに役立つ、クロス・ファーティライズが促進される。
論文 参考訳(メタデータ) (2020-10-24T21:35:57Z) - Meta-learning with Stochastic Linear Bandits [120.43000970418939]
我々は、よく知られたOFULアルゴリズムの正規化バージョンを実装するバンディットアルゴリズムのクラスを考える。
我々は,タスク数の増加とタスク分散の分散が小さくなると,タスクを個別に学習する上で,我々の戦略が大きな優位性を持つことを理論的および実験的に示す。
論文 参考訳(メタデータ) (2020-05-18T08:41:39Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。