論文の概要: Continual Learning via Sequential Function-Space Variational Inference
- arxiv url: http://arxiv.org/abs/2312.17210v1
- Date: Thu, 28 Dec 2023 18:44:32 GMT
- ステータス: 処理完了
- システム内更新日: 2023-12-29 14:58:15.231279
- Title: Continual Learning via Sequential Function-Space Variational Inference
- Title(参考訳): 連続関数空間変動推論による連続学習
- Authors: Tim G. J. Rudner, Freddie Bickford Smith, Qixuan Feng, Yee Whye Teh,
Yarin Gal
- Abstract要約: 連続学習を逐次関数空間変動推論として定式化した目的を提案する。
ニューラルネットワークの予測を直接正規化する目的と比較して、提案した目的はより柔軟な変動分布を可能にする。
タスクシーケンスの範囲で、逐次関数空間変動推論によってトレーニングされたニューラルネットワークは、関連する手法でトレーニングされたネットワークよりも予測精度が良いことを実証した。
- 参考スコア(独自算出の注目度): 65.96686740015902
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Sequential Bayesian inference over predictive functions is a natural
framework for continual learning from streams of data. However, applying it to
neural networks has proved challenging in practice. Addressing the drawbacks of
existing techniques, we propose an optimization objective derived by
formulating continual learning as sequential function-space variational
inference. In contrast to existing methods that regularize neural network
parameters directly, this objective allows parameters to vary widely during
training, enabling better adaptation to new tasks. Compared to objectives that
directly regularize neural network predictions, the proposed objective allows
for more flexible variational distributions and more effective regularization.
We demonstrate that, across a range of task sequences, neural networks trained
via sequential function-space variational inference achieve better predictive
accuracy than networks trained with related methods while depending less on
maintaining a set of representative points from previous tasks.
- Abstract(参考訳): 予測関数に対する逐次ベイズ推定は、データのストリームから連続学習するための自然な枠組みである。
しかし、実際にニューラルネットワークに適用することは困難であることが証明されている。
既存の手法の欠点に対処し,連続学習を逐次関数空間変動推論として定式化した最適化目標を提案する。
ニューラルネットワークのパラメータを直接正規化する既存の方法とは対照的に、この目的により、トレーニング中にパラメータが広く変化し、新しいタスクへの適応性が向上する。
ニューラルネットワークの予測を直接正規化する目的と比較して、提案する目的はより柔軟な変動分布とより効果的な正規化を可能にする。
タスクシーケンスの範囲で、逐次関数空間変動推論によって訓練されたニューラルネットワークは、前のタスクから代表点の集合をあまり持たずに、関連する手法で訓練されたネットワークよりも予測精度が良いことを示した。
関連論文リスト
- High-Fidelity Transfer of Functional Priors for Wide Bayesian Neural Networks by Learning Activations [1.0468715529145969]
トレーニング可能なアクティベーションが,BNN上で複雑な関数空間にどのように対応できるかを示す。
本稿では,識別可能性,損失構成,対称性などの重要な学習課題について論じる。
実験により,単一の広層層を有するBNNであっても,高忠実度関数空間を効果的に実現できることが判明した。
論文 参考訳(メタデータ) (2024-10-21T08:42:10Z) - Tractable Function-Space Variational Inference in Bayesian Neural
Networks [72.97620734290139]
ニューラルネットワークの予測不確かさを推定するための一般的なアプローチは、ネットワークパラメータに対する事前分布を定義することである。
本稿では,事前情報を組み込むスケーラブルな関数空間変動推論手法を提案する。
提案手法は,様々な予測タスクにおいて,最先端の不確実性評価と予測性能をもたらすことを示す。
論文 参考訳(メタデータ) (2023-12-28T18:33:26Z) - Function-Space Regularization in Neural Networks: A Probabilistic
Perspective [51.133793272222874]
所望の予測関数に関する情報をニューラルネットワークトレーニングに明示的にエンコードできる、モチベーションの高い正規化手法を導出できることが示される。
本手法の有効性を実証的に評価し,提案手法がほぼ完全なセマンティックシフト検出と高度に校正された予測不確実性推定に繋がることを示す。
論文 参考訳(メタデータ) (2023-12-28T17:50:56Z) - Continual Learning with Pretrained Backbones by Tuning in the Input
Space [44.97953547553997]
ディープラーニングモデルを非定常環境に適用することの本質的な困難さは、ニューラルネットワークの実際のタスクへの適用性を制限している。
ネットワークの事前学習部分の更新を回避し、通常の分類ヘッドだけでなく、新たに導入した学習可能なパラメータのセットも学習することで、微調整手順をより効果的にするための新しい戦略を提案する。
論文 参考訳(メタデータ) (2023-06-05T15:11:59Z) - On Generalizing Beyond Domains in Cross-Domain Continual Learning [91.56748415975683]
ディープニューラルネットワークは、新しいタスクを学んだ後、これまで学んだ知識の破滅的な忘れ込みに悩まされることが多い。
提案手法は、ドメインシフト中の新しいタスクを精度良く学習することで、DomainNetやOfficeHomeといった挑戦的なデータセットで最大10%向上する。
論文 参考訳(メタデータ) (2022-03-08T09:57:48Z) - Natural continual learning: success is a journey, not (just) a
destination [9.462808515258464]
自然継続学習(NCL)は、重み付け正規化と射影勾配降下を統一する新しい手法である。
提案手法は,RNNにおける連続学習問題に適用した場合,標準重み付け正規化手法とプロジェクションベースアプローチの両方に優れる。
トレーニングされたネットワークは、生体回路の実験的な発見と同様に、新しいタスクが学習されると強く保存されるタスク固有ダイナミクスを進化させる。
論文 参考訳(メタデータ) (2021-06-15T12:24:53Z) - Efficient Variational Inference for Sparse Deep Learning with
Theoretical Guarantee [20.294908538266867]
スパースディープラーニングは、ディープニューラルネットワークによる巨大なストレージ消費の課題に対処することを目的としている。
本稿では,スパイク・アンド・スラブ前処理による完全ベイズ処理により,疎いディープニューラルネットワークを訓練する。
我々はベルヌーイ分布の連続緩和による計算効率の良い変分推論のセットを開発する。
論文 参考訳(メタデータ) (2020-11-15T03:27:54Z) - Unsupervised Transfer Learning for Spatiotemporal Predictive Networks [90.67309545798224]
我々は、教師なし学習されたモデルの動物園から別のネットワークへ知識を伝達する方法を研究する。
私たちのモチベーションは、モデルは異なるソースからの複雑なダイナミクスを理解することが期待されていることです。
提案手法は,時間的予測のための3つのベンチマークで大幅に改善され,重要度が低いベンチマークであっても,ターゲットのメリットが得られた。
論文 参考訳(メタデータ) (2020-09-24T15:40:55Z) - Uniform Priors for Data-Efficient Transfer [65.086680950871]
もっとも移動可能な特徴は埋め込み空間において高い均一性を有することを示す。
我々は、未確認のタスクやデータへの適応を容易にする能力の正規化を評価する。
論文 参考訳(メタデータ) (2020-06-30T04:39:36Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。