論文の概要: Continual Learning with Guarantees via Weight Interval Constraints
- arxiv url: http://arxiv.org/abs/2206.07996v1
- Date: Thu, 16 Jun 2022 08:28:37 GMT
- ステータス: 処理完了
- システム内更新日: 2022-06-18 08:16:46.856209
- Title: Continual Learning with Guarantees via Weight Interval Constraints
- Title(参考訳): 重み区間制約による連続学習
- Authors: Maciej Wo{\l}czyk, Karol J. Piczak, Bartosz W\'ojcik, {\L}ukasz
Pustelnik, Pawe{\l} Morawiecki, Jacek Tabor, Tomasz Trzci\'nski,
Przemys{\l}aw Spurek
- Abstract要約: ニューラルネットパラメータ空間の間隔制約を適用して、忘れを抑える新しいトレーニングパラダイムを導入する。
本稿では,モデルの連続的学習をパラメータ空間の連続的縮約として再構成することで,忘れることに制限を加える方法を示す。
- 参考スコア(独自算出の注目度): 18.791232422083265
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We introduce a new training paradigm that enforces interval constraints on
neural network parameter space to control forgetting. Contemporary Continual
Learning (CL) methods focus on training neural networks efficiently from a
stream of data, while reducing the negative impact of catastrophic forgetting,
yet they do not provide any firm guarantees that network performance will not
deteriorate uncontrollably over time. In this work, we show how to put bounds
on forgetting by reformulating continual learning of a model as a continual
contraction of its parameter space. To that end, we propose Hyperrectangle
Training, a new training methodology where each task is represented by a
hyperrectangle in the parameter space, fully contained in the hyperrectangles
of the previous tasks. This formulation reduces the NP-hard CL problem back to
polynomial time while providing full resilience against forgetting. We validate
our claim by developing InterContiNet (Interval Continual Learning) algorithm
which leverages interval arithmetic to effectively model parameter regions as
hyperrectangles. Through experimental results, we show that our approach
performs well in a continual learning setup without storing data from previous
tasks.
- Abstract(参考訳): ニューラルネットワークパラメータ空間の間隔制約を適用して、忘れを制御できる新しいトレーニングパラダイムを導入する。
現代の連続学習(CL)手法は、データのストリームからニューラルネットワークを効率的にトレーニングすることに焦点を当て、破滅的な忘れの負の影響を低減しているが、ネットワーク性能が時間とともに制御不能に低下しないという確固たる保証は提供していない。
本研究では,モデルの連続学習を,パラメータ空間の連続的収縮として再構成することにより,忘れることに境界を設ける方法を示す。
そこで本研究では,各タスクがパラメータ空間内のハイパー矩形で表現され,前のタスクのハイパー矩形に完全に含まれる,新しいトレーニング手法であるHyperrectangle Trainingを提案する。
この定式化はNPハードCL問題を多項式時間に還元し、忘れることに対して完全なレジリエンスを与える。
区間演算を利用してパラメータ領域をハイパー矩形として効果的にモデル化するInterContiNet(Interval Continual Learning)アルゴリズムを開発した。
実験の結果,従来のタスクからのデータを保存することなく,継続的な学習環境でも良好に動作することがわかった。
関連論文リスト
- Towards Continual Learning Desiderata via HSIC-Bottleneck
Orthogonalization and Equiangular Embedding [55.107555305760954]
本稿では,レイヤワイドパラメータのオーバーライトや決定境界の歪みに起因する,概念的にシンプルで効果的な手法を提案する。
提案手法は,ゼロの指数バッファと1.02倍の差が絶対的に優れていても,競争精度が向上する。
論文 参考訳(メタデータ) (2024-01-17T09:01:29Z) - Continual Learning via Sequential Function-Space Variational Inference [65.96686740015902]
連続学習を逐次関数空間変動推論として定式化した目的を提案する。
ニューラルネットワークの予測を直接正規化する目的と比較して、提案した目的はより柔軟な変動分布を可能にする。
タスクシーケンスの範囲で、逐次関数空間変動推論によってトレーニングされたニューラルネットワークは、関連する手法でトレーニングされたネットワークよりも予測精度が良いことを実証した。
論文 参考訳(メタデータ) (2023-12-28T18:44:32Z) - Robust Stochastically-Descending Unrolled Networks [85.6993263983062]
Deep Unrolling(ディープ・アンローリング)は、トレーニング可能なニューラルネットワークの層に切り捨てられた反復アルゴリズムをアンロールする、新たな学習最適化手法である。
アンロールネットワークの収束保証と一般化性は、いまだにオープンな理論上の問題であることを示す。
提案した制約の下で訓練されたアンロールアーキテクチャを2つの異なるアプリケーションで数値的に評価する。
論文 参考訳(メタデータ) (2023-12-25T18:51:23Z) - Towards Robust Continual Learning with Bayesian Adaptive Moment Regularization [51.34904967046097]
継続的な学習は、モデルが以前に学習した情報を忘れてしまう破滅的な忘れ込みの課題を克服しようとする。
本稿では,パラメータ成長の制約を緩和し,破滅的な忘れを減らし,新しい事前手法を提案する。
以上の結果から, BAdamは, 単頭クラスインクリメンタル実験に挑戦する先行手法に対して, 最先端の性能を達成できることが示唆された。
論文 参考訳(メタデータ) (2023-09-15T17:10:51Z) - DLCFT: Deep Linear Continual Fine-Tuning for General Incremental
Learning [29.80680408934347]
事前学習した表現からモデルを連続的に微調整するインクリメンタルラーニングのための代替フレームワークを提案する。
本手法は, ニューラルネットワークの線形化手法を利用して, 単純かつ効果的な連続学習を行う。
本手法は,データ増分,タスク増分およびクラス増分学習問題において,一般的な連続学習設定に適用可能であることを示す。
論文 参考訳(メタデータ) (2022-08-17T06:58:14Z) - Learning Bayesian Sparse Networks with Full Experience Replay for
Continual Learning [54.7584721943286]
継続学習(CL)手法は、機械学習モデルが、以前にマスターされたタスクを壊滅的に忘れることなく、新しいタスクを学習できるようにすることを目的としている。
既存のCLアプローチは、しばしば、事前に確認されたサンプルのバッファを保持し、知識蒸留を行い、あるいはこの目標に向けて正規化技術を使用する。
我々は,現在および過去のタスクを任意の段階で学習するために,スパースニューロンのみを活性化し,選択することを提案する。
論文 参考訳(メタデータ) (2022-02-21T13:25:03Z) - FFNB: Forgetting-Free Neural Blocks for Deep Continual Visual Learning [14.924672048447338]
我々は、新しい忘れのないニューラルブロック(FFNB)に基づく連続学習のための動的ネットワークアーキテクチャを考案する。
FFNB機能を新しいタスクでトレーニングするには、以前のタスクのnull-スペースのパラメータを制約する新しいプロシージャを使用する。
論文 参考訳(メタデータ) (2021-11-22T17:23:34Z) - Training Networks in Null Space of Feature Covariance for Continual
Learning [34.095874368589904]
従来のタスクのヌルスペース内でネットワークパラメータを逐次最適化する新しいネットワークトレーニングアルゴリズムadam-nsclを提案する。
このアプローチを,cifar-100とtinyimagenetのベンチマークデータセット上での連続学習のためのトレーニングネットワークに適用する。
論文 参考訳(メタデータ) (2021-03-12T07:21:48Z) - Online Reinforcement Learning Control by Direct Heuristic Dynamic
Programming: from Time-Driven to Event-Driven [80.94390916562179]
時間駆動学習は、新しいデータが到着すると予測モデルのパラメータを継続的に更新する機械学習手法を指す。
ノイズなどの重要なシステムイベントによる時間駆動型dHDPの更新を防止することが望ましい。
イベント駆動型dHDPアルゴリズムは,従来の時間駆動型dHDPと比較して動作することを示す。
論文 参考訳(メタデータ) (2020-06-16T05:51:25Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。