論文の概要: Primal-Dual Continual Learning: Stability and Plasticity through
Lagrange Multipliers
- arxiv url: http://arxiv.org/abs/2310.00154v1
- Date: Fri, 29 Sep 2023 21:23:27 GMT
- ステータス: 処理完了
- システム内更新日: 2023-10-05 06:11:09.344922
- Title: Primal-Dual Continual Learning: Stability and Plasticity through
Lagrange Multipliers
- Title(参考訳): 2次元連続学習:ラグランジュ乗算器による安定性と塑性
- Authors: Juan Elenter, Navid NaderiAlizadeh, Tara Javidi, Alejandro Ribeiro
- Abstract要約: 制約付き最適化問題を直接実行することは可能かつ有益であることを示す。
メモリベースのメソッドでは、以前のタスクからのサンプルの小さなサブセットをリプレイバッファに格納できる。
準最適境界を導出し、様々な連続学習ベンチマークで理論的結果を実証的に相関させる。
- 参考スコア(独自算出の注目度): 93.17404959573146
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Continual learning is inherently a constrained learning problem. The goal is
to learn a predictor under a \emph{no-forgetting} requirement. Although several
prior studies formulate it as such, they do not solve the constrained problem
explicitly. In this work, we show that it is both possible and beneficial to
undertake the constrained optimization problem directly. To do this, we
leverage recent results in constrained learning through Lagrangian duality. We
focus on memory-based methods, where a small subset of samples from previous
tasks can be stored in a replay buffer. In this setting, we analyze two
versions of the continual learning problem: a coarse approach with constraints
at the task level and a fine approach with constraints at the sample level. We
show that dual variables indicate the sensitivity of the optimal value with
respect to constraint perturbations. We then leverage this result to partition
the buffer in the coarse approach, allocating more resources to harder tasks,
and to populate the buffer in the fine approach, including only impactful
samples. We derive sub-optimality bounds, and empirically corroborate our
theoretical results in various continual learning benchmarks. We also discuss
the limitations of these methods with respect to the amount of memory available
and the number of constraints involved in the optimization problem.
- Abstract(参考訳): 連続学習は本質的に制約付き学習問題である。
目標は、emph{no-forgetting}要求の下で予測子を学ぶことだ。
いくつかの先行研究がこれを定式化しているが、制約された問題を明示的に解決していない。
本研究では,制約付き最適化問題を直接実施することは可能かつ有益であることを示す。
これを実現するために,ラグランジュ双対性による制約付き学習における最近の結果を活用する。
これまでのタスクのサンプルのごく一部をリプレイバッファに格納できるメモリベースのメソッドに注目した。
本研究では,連続学習問題の2つのバージョン,すなわちタスクレベルで制約のある粗いアプローチとサンプルレベルで制約のある微妙なアプローチを分析した。
双対変数は制約摂動に関して最適値の感度を示す。
次に、この結果を利用して、粗いアプローチでバッファを分割し、より多くのリソースをより難しいタスクに割り当て、影響のあるサンプルのみを含む詳細なアプローチでバッファをポップアップさせます。
我々は、サブ最適性境界を導出し、様々な連続学習ベンチマークで理論結果を実証的にコーポレートする。
また、利用可能なメモリ量や最適化問題に関わる制約の数に関して、これらの方法の制限についても論じる。
関連論文リスト
- Learning Deterministic Surrogates for Robust Convex QCQPs [0.0]
本稿では,ロバストな意思決定損失に関する予測モデルをトレーニングするための二重暗黙層モデルを提案する。
第1の層は問題の決定論的バージョンを解き、第2の層は不確実性集合に対する最悪のケース実現を評価する。
これにより、テスト時に単純な決定論的問題を解くだけで、堅牢な決定につながるモデルのパラメータ化を学ぶことができます。
論文 参考訳(メタデータ) (2023-12-19T16:56:13Z) - Amortizing intractable inference in large language models [56.92471123778389]
難治性後部分布のサンプルとして, 償却ベイズ推定を用いる。
我々は,LLMファインチューニングの分散マッチングパラダイムが,最大習熟の代替となることを実証的に実証した。
重要な応用として、チェーン・オブ・ソート推論を潜在変数モデリング問題として解釈する。
論文 参考訳(メタデータ) (2023-10-06T16:36:08Z) - Resilient Constrained Learning [94.27081585149836]
本稿では,学習課題を同時に解決しながら,要求に適応する制約付き学習手法を提案する。
我々はこの手法を、その操作を変更することで破壊に適応する生態システムを記述する用語に因んで、レジリエントな制約付き学習と呼ぶ。
論文 参考訳(メタデータ) (2023-06-04T18:14:18Z) - A Lagrangian Duality Approach to Active Learning [119.36233726867992]
トレーニングデータのサブセットのみをラベル付けするバッチアクティブな学習問題を考察する。
制約付き最適化を用いて学習問題を定式化し、各制約はラベル付きサンプルにモデルの性能を拘束する。
数値実験により,提案手法は最先端の能動学習法と同等かそれ以上に機能することを示した。
論文 参考訳(メタデータ) (2022-02-08T19:18:49Z) - Simple Stochastic and Online Gradient DescentAlgorithms for Pairwise
Learning [65.54757265434465]
ペアワイズ学習(Pairwise learning)とは、損失関数がペアインスタンスに依存するタスクをいう。
オンライン降下(OGD)は、ペアワイズ学習でストリーミングデータを処理する一般的なアプローチである。
本稿では,ペアワイズ学習のための手法について,シンプルでオンラインな下降を提案する。
論文 参考訳(メタデータ) (2021-11-23T18:10:48Z) - Proximal Causal Learning with Kernels: Two-Stage Estimation and Moment
Restriction [39.51144507601913]
我々は近位因果学習の設定に焦点をあてるが、本手法はフレドホルム積分方程式によって特徴づけられるより広い逆問題のクラスを解くのに使うことができる。
我々は,各アルゴリズムに一貫性の保証を提供し,これらの手法が合成データと実世界のタスクをシミュレートしたデータにおいて競争的な結果をもたらすことを示す。
論文 参考訳(メタデータ) (2021-05-10T17:52:48Z) - Laplacian Regularized Few-Shot Learning [35.381119443377195]
少数ショットタスクに対するラプラシアン正規化推論を提案する。
私たちの推論はベースモデルを再トレーニングするものではなく、クエリセットのグラフクラスタリングとして見ることができます。
我々のLaplacianShotは、異なるモデル間で大きなマージンで最先端の手法を一貫して上回ります。
論文 参考訳(メタデータ) (2020-06-28T02:17:52Z) - The Simulator: Understanding Adaptive Sampling in the
Moderate-Confidence Regime [52.38455827779212]
エミュレータと呼ばれる適応サンプリングを解析するための新しい手法を提案する。
適切なログファクタを組み込んだトップk問題の最初のインスタンスベースの下位境界を証明します。
我々の新しい分析は、後者の問題に対するこの種の最初のエミュレータであるベストアームとトップkの識別に、シンプルでほぼ最適であることを示した。
論文 参考訳(メタデータ) (2017-02-16T23:42:02Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。