論文の概要: The Bayesian Approach to Continual Learning: An Overview
- arxiv url: http://arxiv.org/abs/2507.08922v1
- Date: Fri, 11 Jul 2025 17:16:13 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-07-15 18:48:21.867694
- Title: The Bayesian Approach to Continual Learning: An Overview
- Title(参考訳): 連続学習へのベイズ的アプローチ--概観
- Authors: Tameem Adel,
- Abstract要約: 継続的な学習は、学習者がさまざまなタスクから知識を継続的に蓄積するオンラインパラダイムである。
連続学習は、連続学習とベイズ推論の固有の一致を連続的に伴って学習者を更新する必要がある。
本研究では,ベイズ連続学習,すなわちタスク増分学習とクラス増分学習の異なる設定を調査する。
- 参考スコア(独自算出の注目度): 4.550647089601897
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Continual learning is an online paradigm where a learner continually accumulates knowledge from different tasks encountered over sequential time steps. Importantly, the learner is required to extend and update its knowledge without forgetting about the learning experience acquired from the past, and while avoiding the need to retrain from scratch. Given its sequential nature and its resemblance to the way humans think, continual learning offers an opportunity to address several challenges which currently stand in the way of widening the range of applicability of deep models to further real-world problems. The continual need to update the learner with data arriving sequentially strikes inherent congruence between continual learning and Bayesian inference which provides a principal platform to keep updating the prior beliefs of a model given new data, without completely forgetting the knowledge acquired from the old data. This survey inspects different settings of Bayesian continual learning, namely task-incremental learning and class-incremental learning. We begin by discussing definitions of continual learning along with its Bayesian setting, as well as the links with related fields, such as domain adaptation, transfer learning and meta-learning. Afterwards, we introduce a taxonomy offering a comprehensive categorization of algorithms belonging to the Bayesian continual learning paradigm. Meanwhile, we analyze the state-of-the-art while zooming in on some of the most prominent Bayesian continual learning algorithms to date. Furthermore, we shed some light on links between continual learning and developmental psychology, and correspondingly introduce analogies between both fields. We follow that with a discussion of current challenges, and finally conclude with potential areas for future research on Bayesian continual learning.
- Abstract(参考訳): 連続学習は、学習者が逐次的な時間ステップで遭遇するさまざまなタスクからの知識を継続的に蓄積するオンラインパラダイムである。
重要なことは、学習者は過去から得た学習経験を忘れずに知識を拡張して更新し、ゼロから再訓練する必要をなくすことである。
そのシーケンシャルな性質と人間の考え方に類似していることから、継続的学習は、現在、深層モデルの適用範囲を広げ、より現実的な問題へと拡大する過程にあるいくつかの課題に対処する機会を提供する。
学習者が到着したデータを連続的に更新する必要性は、継続学習とベイズ推論とを本質的に一致させる。これは、古いデータから得た知識を完全に忘れることなく、与えられたモデルの以前の信念を更新し続けるための主要なプラットフォームを提供する。
本研究では,ベイズ連続学習,すなわちタスク増分学習とクラス増分学習の異なる設定を調査する。
まず、連続学習の定義とそのベイズ的設定、およびドメイン適応、転帰学習、メタラーニングといった関連分野との関係について議論する。
その後,ベイズ連続学習パラダイムに属するアルゴリズムを包括的に分類する分類法を導入する。
一方、ベイズ的連続学習アルゴリズムのいくつかをズームインしながら、最先端の技術を解析する。
さらに,連続学習と発達心理学の関連性に光を当て,両分野間の類似性を紹介する。
現在の課題について議論し、ベイジアン連続学習の今後の研究分野の可能性について結論づける。
関連論文リスト
- The Future of Continual Learning in the Era of Foundation Models: Three Key Directions [3.805777835466912]
継続的学習は3つの重要な理由から不可欠である、と我々は主張する。
我々は、連続的な学習の再生を象徴する連続的な構成性について論じている。
AIの未来は、単一の静的モデルではなく、継続的に進化し、相互作用するモデルのエコシステムによって定義される。
論文 参考訳(メタデータ) (2025-06-03T19:06:41Z) - Mathematics of Continual Learning [45.73704932193178]
連続学習は、学習したタスクを忘れずに、学習者に順次提示される複数のタスクを解決することを目的としている。
アダプティブ・フィルタリングは、数学的に原理化された手法の豊富な歴史を持つ信号処理における古典的な主題である。
論文 参考訳(メタデータ) (2025-04-24T22:23:41Z) - Continual Learning: Applications and the Road Forward [119.03464063873407]
継続的学習は、機械学習モデルが、過去に学んだことを忘れずに知識を蓄積することで、新しいデータを継続的に学習できるようにすることを目的としている。
この研究は、2023年3月のDagtuhl Seminar on Deep Continual Learningで著者らが行った多くの議論の結果である。
論文 参考訳(メタデータ) (2023-11-20T16:40:29Z) - When Meta-Learning Meets Online and Continual Learning: A Survey [39.53836535326121]
メタ学習は学習アルゴリズムを最適化するためのデータ駆動型アプローチである。
継続的な学習とオンライン学習はどちらも、ストリーミングデータでモデルを漸進的に更新する。
本稿では,一貫した用語と形式記述を用いて,様々な問題設定を整理する。
論文 参考訳(メタデータ) (2023-11-09T09:49:50Z) - COOLer: Class-Incremental Learning for Appearance-Based Multiple Object
Tracking [32.47215340215641]
本稿では,連続学習研究の範囲を,複数物体追跡(MOT)のためのクラス増分学習に拡張する。
オブジェクト検出器の連続学習のための従来のソリューションは、外見に基づくトラッカーのデータ関連ステージには対応していない。
我々は,Contrastive- and cOntinual-LearningベースのトラッカーであるCOOLerを紹介した。
論文 参考訳(メタデータ) (2023-10-04T17:49:48Z) - On Generalizing Beyond Domains in Cross-Domain Continual Learning [91.56748415975683]
ディープニューラルネットワークは、新しいタスクを学んだ後、これまで学んだ知識の破滅的な忘れ込みに悩まされることが多い。
提案手法は、ドメインシフト中の新しいタスクを精度良く学習することで、DomainNetやOfficeHomeといった挑戦的なデータセットで最大10%向上する。
論文 参考訳(メタデータ) (2022-03-08T09:57:48Z) - Transferability in Deep Learning: A Survey [80.67296873915176]
知識を習得し再利用する能力は、ディープラーニングにおける伝達可能性として知られている。
本研究は,深層学習における異なる孤立領域と伝達可能性との関係を関連付けるための調査である。
我々はベンチマークとオープンソースライブラリを実装し、転送可能性の観点からディープラーニング手法の公平な評価を可能にする。
論文 参考訳(メタデータ) (2022-01-15T15:03:17Z) - Online Continual Learning with Natural Distribution Shifts: An Empirical
Study with Visual Data [101.6195176510611]
オンライン」連続学習は、情報保持とオンライン学習の有効性の両方を評価することができる。
オンライン連続学習では、入力される各小さなデータをまずテストに使用し、次にトレーニングセットに追加し、真にオンラインにします。
本稿では,大規模かつ自然な分布変化を示すオンライン連続視覚学習のための新しいベンチマークを提案する。
論文 参考訳(メタデータ) (2021-08-20T06:17:20Z) - Transfer Learning in Deep Reinforcement Learning: A Survey [64.36174156782333]
強化学習は、シーケンシャルな意思決定問題を解決するための学習パラダイムである。
近年、ディープニューラルネットワークの急速な発展により、強化学習の顕著な進歩が見られた。
転校学習は 強化学習が直面する様々な課題に 対処するために生まれました
論文 参考訳(メタデータ) (2020-09-16T18:38:54Z) - Bilevel Continual Learning [76.50127663309604]
BCL(Bilevel Continual Learning)という,継続的学習の新たな枠組みを提案する。
連続学習ベンチマーク実験では,多くの最先端手法と比較して,提案したBCLの有効性が示された。
論文 参考訳(メタデータ) (2020-07-30T16:00:23Z) - Meta-Learning in Neural Networks: A Survey [4.588028371034406]
本調査では,現代メタラーニングの展望について述べる。
まずメタラーニングの定義について議論し、関連する分野について位置づける。
そこで我々はメタラーニング手法の空間をより包括的に分析する新しい分類法を提案する。
論文 参考訳(メタデータ) (2020-04-11T16:34:24Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。