論文の概要: Continuous-Time Meta-Learning with Forward Mode Differentiation
- arxiv url: http://arxiv.org/abs/2203.01443v1
- Date: Wed, 2 Mar 2022 22:35:58 GMT
- ステータス: 処理完了
- システム内更新日: 2022-03-05 10:09:07.367521
- Title: Continuous-Time Meta-Learning with Forward Mode Differentiation
- Title(参考訳): 前向きモード差分による連続時間メタラーニング
- Authors: Tristan Deleu, David Kanaa, Leo Feng, Giancarlo Kerg, Yoshua Bengio,
Guillaume Lajoie, Pierre-Luc Bacon
- Abstract要約: 本稿では,勾配ベクトル場の力学に適応するメタ学習アルゴリズムであるContinuous Meta-Learning(COMLN)を紹介する。
学習プロセスをODEとして扱うことは、軌跡の長さが現在連続しているという顕著な利点を提供する。
本稿では,実行時とメモリ使用時の効率を実証的に示すとともに,いくつかの画像分類問題に対して有効性を示す。
- 参考スコア(独自算出の注目度): 65.26189016950343
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Drawing inspiration from gradient-based meta-learning methods with infinitely
small gradient steps, we introduce Continuous-Time Meta-Learning (COMLN), a
meta-learning algorithm where adaptation follows the dynamics of a gradient
vector field. Specifically, representations of the inputs are meta-learned such
that a task-specific linear classifier is obtained as a solution of an ordinary
differential equation (ODE). Treating the learning process as an ODE offers the
notable advantage that the length of the trajectory is now continuous, as
opposed to a fixed and discrete number of gradient steps. As a consequence, we
can optimize the amount of adaptation necessary to solve a new task using
stochastic gradient descent, in addition to learning the initial conditions as
is standard practice in gradient-based meta-learning. Importantly, in order to
compute the exact meta-gradients required for the outer-loop updates, we devise
an efficient algorithm based on forward mode differentiation, whose memory
requirements do not scale with the length of the learning trajectory, thus
allowing longer adaptation in constant memory. We provide analytical guarantees
for the stability of COMLN, we show empirically its efficiency in terms of
runtime and memory usage, and we illustrate its effectiveness on a range of
few-shot image classification problems.
- Abstract(参考訳): 無限に小さな勾配ステップを持つ勾配に基づくメタ学習法から着想を得たメタ学習アルゴリズムであるCOMLN(Continuous-Time Meta-Learning)を導入する。
具体的には、通常の微分方程式(ODE)の解としてタスク固有の線形分類器が得られるように、入力の表現をメタ学習する。
学習過程をODEとして扱うことは、軌道の長さが一定かつ離散的な勾配ステップではなく、現在連続しているという顕著な利点を提供する。
その結果,新しい課題を確率的勾配降下を用いて解くために必要な適応量を最適化でき,また,勾配に基づくメタラーニングの標準的な手法である初期条件を学習できる。
重要なことは、外ループ更新に必要な正確なメタ勾配を計算するために、学習軌跡の長さに合わせてメモリ要求がスケールしないフォワードモード微分に基づく効率的なアルゴリズムを考案し、一定のメモリでより長い適応を可能にすることである。
我々は,comlnの安定性に関する解析的保証を提供し,実行時およびメモリ使用量の観点からその効率を実証的に示し,少数の画像分類問題に対してその効果を示す。
関連論文リスト
- Gradient-Variation Online Learning under Generalized Smoothness [56.38427425920781]
勾配変分オンライン学習は、オンライン関数の勾配の変化とともにスケールする後悔の保証を達成することを目的としている。
ニューラルネットワーク最適化における最近の取り組みは、一般化された滑らかさ条件を示唆し、滑らかさは勾配ノルムと相関する。
ゲームにおける高速収束と拡張逆最適化への応用について述べる。
論文 参考訳(メタデータ) (2024-08-17T02:22:08Z) - An Effective Dynamic Gradient Calibration Method for Continual Learning [11.555822066922508]
継続的学習(CL)は機械学習の基本的なトピックであり、目標は連続的なデータとタスクでモデルをトレーニングすることだ。
メモリ制限のため、すべての履歴データを保存できないため、破滅的な忘れの問題に直面します。
モデルの各更新ステップの勾配をキャリブレーションする有効なアルゴリズムを開発した。
論文 参考訳(メタデータ) (2024-07-30T16:30:09Z) - Model-Agnostic Zeroth-Order Policy Optimization for Meta-Learning of Ergodic Linear Quadratic Regulators [13.343937277604892]
エルゴード線形二次規制器における不確実性と不均一性を扱うためにメタラーニングを用いることの問題点について検討する。
本稿では,不均一だが類似の線形力学系を学習するタスクに適用可能なポリシヘシアンの推定を省略するアルゴリズムを提案する。
メタオブジェクトの勾配の有界性と滑らかさを解析することにより、正確な勾配降下過程の収束結果を提供する。
論文 参考訳(メタデータ) (2024-05-27T17:26:36Z) - Scalable Bayesian Meta-Learning through Generalized Implicit Gradients [64.21628447579772]
Inlicit Bayesian Meta-learning (iBaML) 法は、学習可能な事前のスコープを広げるだけでなく、関連する不確実性も定量化する。
解析誤差境界は、明示的よりも一般化された暗黙的勾配の精度と効率を示すために確立される。
論文 参考訳(メタデータ) (2023-03-31T02:10:30Z) - Efficient Meta-Learning for Continual Learning with Taylor Expansion
Approximation [2.28438857884398]
連続学習は、非定常分布下で連続的なタスクを処理する際の破滅的な忘れを緩和することを目的としている。
本稿では,オンライン連続学習問題を解決するためのメタ学習アルゴリズムを提案する。
提案手法は, 最先端手法と比較して, 高い性能, 高い効率を実現している。
論文 参考訳(メタデータ) (2022-10-03T04:57:05Z) - One Step at a Time: Pros and Cons of Multi-Step Meta-Gradient
Reinforcement Learning [61.662504399411695]
より正確でロバストなメタ勾配信号を持つ複数の内部ステップを混合する新しい手法を提案する。
Snakeゲームに適用した場合、混合メタグラディエントアルゴリズムは、類似または高い性能を達成しつつ、その分散を3倍に削減することができる。
論文 参考訳(メタデータ) (2021-10-30T08:36:52Z) - Meta-Learning with Adjoint Methods [16.753336086160598]
メタラーニング(MAML)は、タスクファミリーの優れた初期化を見つけるために広く使われている。
その成功にもかかわらず、MAMLにおける重要な課題は、サンプリングされたタスクに対する長いトレーニング軌跡の初期化で勾配を計算することである。
本稿では,この問題を解決するためにAdjoint MAML (A-MAML)を提案する。
人工メタ学習と実世界のメタ学習の両方において、我々のアプローチの利点を実証する。
論文 参考訳(メタデータ) (2021-10-16T01:18:50Z) - Large-Scale Meta-Learning with Continual Trajectory Shifting [76.29017270864308]
メタリアナーがより多くの内部勾配ステップをとれるようにすることで、ヘテロジニアスタスクや大規模タスクの構造をよりよく把握できることを示す。
メタ更新の頻度を増やすために、タスク固有のパラメータの必要なシフトを推定することを提案する。
このアルゴリズムは, 一般化性能と収束性の両方において, 先行する一階メタ学習法を大きく上回っていることを示す。
論文 参考訳(メタデータ) (2021-02-14T18:36:33Z) - Regularizing Meta-Learning via Gradient Dropout [102.29924160341572]
メタ学習モデルは、メタ学習者が一般化するのに十分なトレーニングタスクがない場合、過度に適合する傾向がある。
本稿では,勾配に基づくメタ学習において過度に適合するリスクを軽減するための,シンプルで効果的な手法を提案する。
論文 参考訳(メタデータ) (2020-04-13T10:47:02Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。