論文の概要: Hierarchically Structured Task-Agnostic Continual Learning
- arxiv url: http://arxiv.org/abs/2211.07725v1
- Date: Mon, 14 Nov 2022 19:53:15 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-16 13:42:05.345574
- Title: Hierarchically Structured Task-Agnostic Continual Learning
- Title(参考訳): 階層的構造化タスク非依存型連続学習
- Authors: Heinke Hihn, Daniel A. Braun
- Abstract要約: 本研究では,連続学習のタスク非依存的な視点を取り入れ,階層的情報理論の最適性原理を考案する。
我々は,情報処理経路の集合を作成することで,忘れを緩和する,Mixture-of-Variational-Experts層と呼ばれるニューラルネットワーク層を提案する。
既存の連続学習アルゴリズムのようにタスク固有の知識を必要としない。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: One notable weakness of current machine learning algorithms is the poor
ability of models to solve new problems without forgetting previously acquired
knowledge. The Continual Learning paradigm has emerged as a protocol to
systematically investigate settings where the model sequentially observes
samples generated by a series of tasks. In this work, we take a task-agnostic
view of continual learning and develop a hierarchical information-theoretic
optimality principle that facilitates a trade-off between learning and
forgetting. We derive this principle from a Bayesian perspective and show its
connections to previous approaches to continual learning. Based on this
principle, we propose a neural network layer, called the
Mixture-of-Variational-Experts layer, that alleviates forgetting by creating a
set of information processing paths through the network which is governed by a
gating policy. Equipped with a diverse and specialized set of parameters, each
path can be regarded as a distinct sub-network that learns to solve tasks. To
improve expert allocation, we introduce diversity objectives, which we evaluate
in additional ablation studies. Importantly, our approach can operate in a
task-agnostic way, i.e., it does not require task-specific knowledge, as is the
case with many existing continual learning algorithms. Due to the general
formulation based on generic utility functions, we can apply this optimality
principle to a large variety of learning problems, including supervised
learning, reinforcement learning, and generative modeling. We demonstrate the
competitive performance of our method on continual reinforcement learning and
variants of the MNIST, CIFAR-10, and CIFAR-100 datasets.
- Abstract(参考訳): 現在の機械学習アルゴリズムの顕著な弱点の1つは、モデルが以前獲得した知識を忘れずに新しい問題を解決する能力の欠如である。
連続学習パラダイムは、一連のタスクによって生成されたサンプルを逐次観察する設定を体系的に調査するプロトコルとして登場した。
本研究では,連続学習のタスクに依存しない視点を取り入れ,学習と忘れのトレードオフを促進する階層的情報理論の最適性原理を開発する。
我々はこの原理をベイズ的視点から導き出し、連続学習への従来のアプローチとのつながりを示す。
この原理に基づき,ガティングポリシーによって制御されるネットワークを通して情報処理パスの集合を作成することにより,忘れを緩和する,mixing-of-variational-experts層と呼ばれるニューラルネットワーク層を提案する。
多様な特殊なパラメータセットを備えており、各パスはタスクの解き方を学ぶ独立したサブネットワークと見なすことができる。
専門家の割当を改善するために,我々はさらなるアブレーション研究で評価する多様性目標を提案する。
重要なことは,既存の連続学習アルゴリズムのようにタスク固有の知識を必要としない,タスクに依存しない方法で動作させることである。
汎用的ユーティリティ関数に基づく一般的な定式化により,この最適性原理を教師あり学習,強化学習,生成モデリングなど,多種多様な学習問題に適用することができる。
我々は,MNIST, CIFAR-10, CIFAR-100データセットの連続的強化学習と変種に対する提案手法の競合性能を示す。
関連論文リスト
- A Unified Framework for Neural Computation and Learning Over Time [56.44910327178975]
Hamiltonian Learningはニューラルネットワークを"時間とともに"学習するための新しい統合フレームワーク
i)外部ソフトウェアソルバを必要とせずに統合できる、(ii)フィードフォワードおよびリカレントネットワークにおける勾配に基づく学習の概念を一般化する、(iii)新しい視点で開放する、という微分方程式に基づいている。
論文 参考訳(メタデータ) (2024-09-18T14:57:13Z) - Complementary Learning Subnetworks for Parameter-Efficient
Class-Incremental Learning [40.13416912075668]
本稿では,2つの補完学習サブネットワークス間のシナジーを通じて連続的に学習するリハーサルフリーなCILアプローチを提案する。
提案手法は, 精度向上, メモリコスト, トレーニング効率, タスク順序など, 最先端手法と競合する結果が得られる。
論文 参考訳(メタデータ) (2023-06-21T01:43:25Z) - Online Continual Learning via the Knowledge Invariant and Spread-out
Properties [4.109784267309124]
継続的な学習の鍵となる課題は破滅的な忘れ方だ。
知識不変性とスプレッドアウト特性(OCLKISP)を用いたオンライン連続学習法を提案する。
提案手法を,CIFAR 100, Split SVHN, Split CUB200, Split Tiny-Image-Netの4つのベンチマークで実証的に評価した。
論文 参考訳(メタデータ) (2023-02-02T04:03:38Z) - Anti-Retroactive Interference for Lifelong Learning [65.50683752919089]
我々は脳のメタラーニングと連想機構に基づく生涯学習のパラダイムを設計する。
知識の抽出と知識の記憶という2つの側面から問題に取り組む。
提案した学習パラダイムが,異なるタスクのモデルを同じ最適に収束させることができることを理論的に分析した。
論文 参考訳(メタデータ) (2022-08-27T09:27:36Z) - Mixture-of-Variational-Experts for Continual Learning [0.0]
学習と忘れのトレードオフを促進する最適原理を提案する。
我々はMixture-of-Variational-Experts (MoVE)と呼ばれる連続学習のためのニューラルネットワーク層を提案する。
MNISTおよびCIFAR10データセットの変種に関する実験は、MoVE層の競合性能を示す。
論文 参考訳(メタデータ) (2021-10-25T06:32:06Z) - Self-Attention Meta-Learner for Continual Learning [5.979373021392084]
SAM(Self-Attention Meta-Learner)は,タスクのシーケンスを学習する継続的学習の事前知識を学習する。
SAMには、将来のタスクごとに特定の関連する表現を選択することを学ぶアテンションメカニズムが組み込まれている。
タスク推論において,提案手法を Split CIFAR-10/100 と Split MNIST のベンチマークで評価した。
論文 参考訳(メタデータ) (2021-01-28T17:35:04Z) - Behavior Priors for Efficient Reinforcement Learning [97.81587970962232]
本稿では,情報とアーキテクチャの制約を,確率論的モデリング文献のアイデアと組み合わせて行動の事前学習を行う方法について考察する。
このような潜伏変数の定式化が階層的強化学習(HRL)と相互情報と好奇心に基づく目的との関係について論じる。
シミュレーションされた連続制御領域に適用することで,フレームワークの有効性を実証する。
論文 参考訳(メタデータ) (2020-10-27T13:17:18Z) - Importance Weighted Policy Learning and Adaptation [89.46467771037054]
政治外学習の最近の進歩の上に構築された,概念的にシンプルで,汎用的で,モジュール的な補完的アプローチについて検討する。
このフレームワークは確率論的推論文学のアイデアにインスパイアされ、堅牢な非政治学習と事前の行動を組み合わせる。
提案手法は,メタ強化学習ベースラインと比較して,ホールドアウトタスクにおける競合適応性能を実現し,複雑なスパース・リワードシナリオにスケールすることができる。
論文 参考訳(メタデータ) (2020-09-10T14:16:58Z) - Sequential Transfer in Reinforcement Learning with a Generative Model [48.40219742217783]
本稿では,従来の課題から知識を移譲することで,新たな課題を学習する際のサンプルの複雑さを軽減する方法について述べる。
この種の事前知識を使用することのメリットを明確に示すために,PAC境界のサンプル複雑性を導出する。
簡単なシミュレートされた領域における理論的な発見を実証的に検証する。
論文 参考訳(メタデータ) (2020-07-01T19:53:35Z) - Model-based Multi-Agent Reinforcement Learning with Cooperative
Prioritized Sweeping [4.5497948012757865]
本稿では,新しいモデルに基づく強化学習アルゴリズム,Cooperative Prioritized Sweepingを提案する。
このアルゴリズムは、値関数を近似するために因子化を利用することにより、大きな問題に対するサンプル効率の学習を可能にする。
我々の手法は、よく知られたSysAdminベンチマークとランダム化環境の両方において、最先端の協調的なQ-ラーニングアルゴリズムよりも優れている。
論文 参考訳(メタデータ) (2020-01-15T19:13:44Z) - A Neural Dirichlet Process Mixture Model for Task-Free Continual
Learning [48.87397222244402]
タスクフリー連続学習のための拡張型アプローチを提案する。
我々のモデルは、識別的タスクと生成的タスクの両方に対してタスクフリー連続学習を成功させる。
論文 参考訳(メタデータ) (2020-01-03T02:07:31Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。