論文の概要: Continual Learning via Bit-Level Information Preserving
- arxiv url: http://arxiv.org/abs/2105.04444v1
- Date: Mon, 10 May 2021 15:09:01 GMT
- ステータス: 処理完了
- システム内更新日: 2021-05-11 14:43:13.794532
- Title: Continual Learning via Bit-Level Information Preserving
- Title(参考訳): ビットレベル情報保存による連続学習
- Authors: Yujun Shi, Li Yuan, Yunpeng Chen, Jiashi Feng
- Abstract要約: 我々は情報理論のレンズを通して連続学習過程を研究する。
モデルパラメータの情報利得を維持するビットレベル情報保存(BLIP)を提案する。
BLIPは、連続的な学習を通してメモリオーバーヘッドを一定に保ちながら、ほとんど忘れることができない。
- 参考スコア(独自算出の注目度): 88.32450740325005
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Continual learning tackles the setting of learning different tasks
sequentially. Despite the lots of previous solutions, most of them still suffer
significant forgetting or expensive memory cost. In this work, targeted at
these problems, we first study the continual learning process through the lens
of information theory and observe that forgetting of a model stems from the
loss of \emph{information gain} on its parameters from the previous tasks when
learning a new task. From this viewpoint, we then propose a novel continual
learning approach called Bit-Level Information Preserving (BLIP) that preserves
the information gain on model parameters through updating the parameters at the
bit level, which can be conveniently implemented with parameter quantization.
More specifically, BLIP first trains a neural network with weight quantization
on the new incoming task and then estimates information gain on each parameter
provided by the task data to determine the bits to be frozen to prevent
forgetting. We conduct extensive experiments ranging from classification tasks
to reinforcement learning tasks, and the results show that our method produces
better or on par results comparing to previous state-of-the-arts. Indeed, BLIP
achieves close to zero forgetting while only requiring constant memory
overheads throughout continual learning.
- Abstract(参考訳): 連続学習は、異なるタスクを順次学習する設定に取り組む。
以前のソリューションは数多くありましたが、ほとんどの場合、忘れたり、高価なメモリコストに悩まされています。
本研究は,これらの課題を対象とし,まず,情報理論のレンズを通して連続学習過程を考察し,新しいタスクを学習する際のパラメーターに対する\emph{information gain} の損失がモデルを忘れることに起因することを観察する。
そこで本研究では,パラメータをビットレベルで更新することで,モデルパラメータに対する情報ゲインを保存し,パラメータの量子化を便利に実装する,ビットレベル情報保存(BLIP)と呼ばれる新しい連続学習手法を提案する。
より具体的には、blipはまず、新しい入力タスクの重み量子化を伴うニューラルネットワークをトレーニングし、タスクデータが提供する各パラメータの情報ゲインを推定して、凍結すべきビットを判断して忘れないようにする。
我々は,分類タスクから強化学習タスクまで幅広い実験を行い,本手法が従来の最先端技術と比較して,より良い結果が得られることを示す。
実際、BLIPは、連続的な学習を通して一定のメモリオーバーヘッドしか必要とせず、ほとんど忘れることができない。
関連論文リスト
- Mind the Interference: Retaining Pre-trained Knowledge in Parameter Efficient Continual Learning of Vision-Language Models [79.28821338925947]
ドメインクラスのインクリメンタル学習は現実的だが、継続的な学習シナリオである。
これらの多様なタスクに対処するために、事前訓練されたビジョンランゲージモデル(VLM)を導入し、その強力な一般化性を実現する。
事前訓練されたVLMにエンコードされた知識は、新しいタスクに適応する際に妨げられ、固有のゼロショット能力を損なう。
既存の手法では、膨大なオーバーヘッドを必要とする余分なデータセットに知識蒸留でVLMをチューニングすることで、この問題に対処している。
我々は、事前学習した知識を保持できるDIKI(Distributed-Aware Interference-free Knowledge Integration)フレームワークを提案する。
論文 参考訳(メタデータ) (2024-07-07T12:19:37Z) - Towards Robust Continual Learning with Bayesian Adaptive Moment Regularization [51.34904967046097]
継続的な学習は、モデルが以前に学習した情報を忘れてしまう破滅的な忘れ込みの課題を克服しようとする。
本稿では,パラメータ成長の制約を緩和し,破滅的な忘れを減らし,新しい事前手法を提案する。
以上の結果から, BAdamは, 単頭クラスインクリメンタル実験に挑戦する先行手法に対して, 最先端の性能を達成できることが示唆された。
論文 参考訳(メタデータ) (2023-09-15T17:10:51Z) - Complementary Learning Subnetworks for Parameter-Efficient
Class-Incremental Learning [40.13416912075668]
本稿では,2つの補完学習サブネットワークス間のシナジーを通じて連続的に学習するリハーサルフリーなCILアプローチを提案する。
提案手法は, 精度向上, メモリコスト, トレーニング効率, タスク順序など, 最先端手法と競合する結果が得られる。
論文 参考訳(メタデータ) (2023-06-21T01:43:25Z) - PIVOT: Prompting for Video Continual Learning [50.80141083993668]
PIVOTは、画像領域から事前学習したモデルにおける広範な知識を活用する新しい手法である。
実験の結果,PIVOTは20タスクのアクティビティネット設定において,最先端の手法を27%向上することがわかった。
論文 参考訳(メタデータ) (2022-12-09T13:22:27Z) - Learning Bayesian Sparse Networks with Full Experience Replay for
Continual Learning [54.7584721943286]
継続学習(CL)手法は、機械学習モデルが、以前にマスターされたタスクを壊滅的に忘れることなく、新しいタスクを学習できるようにすることを目的としている。
既存のCLアプローチは、しばしば、事前に確認されたサンプルのバッファを保持し、知識蒸留を行い、あるいはこの目標に向けて正規化技術を使用する。
我々は,現在および過去のタスクを任意の段階で学習するために,スパースニューロンのみを活性化し,選択することを提案する。
論文 参考訳(メタデータ) (2022-02-21T13:25:03Z) - DIODE: Dilatable Incremental Object Detection [15.59425584971872]
従来のディープラーニングモデルには、以前に学習した知識を保存する能力がない。
多段階インクリメンタル検出タスクのための拡張可能なインクリメンタルオブジェクト検出器(DIODE)を提案する。
提案手法は,新たに学習した各タスクのパラメータ数を1.2%増加させることで,最大6.4%の性能向上を実現する。
論文 参考訳(メタデータ) (2021-08-12T09:45:57Z) - TAG: Task-based Accumulated Gradients for Lifelong learning [21.779858050277475]
タスク間の関連性に基づいて学習率を適応させるタスク認識システムを提案する。
提案する適応学習率は, 破滅的な記憶の喪失だけでなく, 正の後方移動にも寄与することを示した。
論文 参考訳(メタデータ) (2021-05-11T16:10:32Z) - Rectification-based Knowledge Retention for Continual Learning [49.1447478254131]
ディープラーニングモデルは、インクリメンタルな学習環境で訓練されたときに壊滅的な忘れに苦しむ。
タスクインクリメンタル学習問題に対処するための新しいアプローチを提案する。これは、インクリメンタルに到着する新しいタスクに関するモデルをトレーニングすることを含む。
私たちのアプローチは、ゼロショットと非ゼロショットタスクインクリメンタルラーニング設定の両方で使用できます。
論文 参考訳(メタデータ) (2021-03-30T18:11:30Z) - Gradient Projection Memory for Continual Learning [5.43185002439223]
過去のタスクを忘れずに継続的に学習する能力は、人工学習システムにとって望ましい属性です。
ニューラルネットワークは,従来のタスクにとって重要と考えられる勾配部分空間に直交方向の勾配を向けることで,新しいタスクを学習する手法を提案する。
論文 参考訳(メタデータ) (2021-03-17T16:31:29Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。