論文の概要: Separating the what and how of compositional computation to enable reuse and continual learning
- arxiv url: http://arxiv.org/abs/2510.20709v1
- Date: Thu, 23 Oct 2025 16:24:40 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-25 03:08:18.334697
- Title: Separating the what and how of compositional computation to enable reuse and continual learning
- Title(参考訳): 再利用と継続学習を可能にする構成計算の方法と方法の分離
- Authors: Haozhe Shan, Sun Minni, Lea Duncker,
- Abstract要約: 繰り返しニューラルネットワーク(RNN)モデルにおける連続学習と学習計算の合成再利用について検討する。
まず,多種多様なタスクを確率的生成モデルにより体系的に記述できることを示す。
我々は,このモデルを単一審理ベースで学習できる教師なしオンライン学習手法を開発した。
- 参考スコア(独自算出の注目度): 1.8206461789819075
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The ability to continually learn, retain and deploy skills to accomplish goals is a key feature of intelligent and efficient behavior. However, the neural mechanisms facilitating the continual learning and flexible (re-)composition of skills remain elusive. Here, we study continual learning and the compositional reuse of learned computations in recurrent neural network (RNN) models using a novel two-system approach: one system that infers what computation to perform, and one that implements how to perform it. We focus on a set of compositional cognitive tasks commonly studied in neuroscience. To construct the what system, we first show that a large family of tasks can be systematically described by a probabilistic generative model, where compositionality stems from a shared underlying vocabulary of discrete task epochs. The shared epoch structure makes these tasks inherently compositional. We first show that this compositionality can be systematically described by a probabilistic generative model. Furthermore, We develop an unsupervised online learning approach that can learn this model on a single-trial basis, building its vocabulary incrementally as it is exposed to new tasks, and inferring the latent epoch structure as a time-varying computational context within a trial. We implement the how system as an RNN whose low-rank components are composed according to the context inferred by the what system. Contextual inference facilitates the creation, learning, and reuse of low-rank RNN components as new tasks are introduced sequentially, enabling continual learning without catastrophic forgetting. Using an example task set, we demonstrate the efficacy and competitive performance of this two-system learning framework, its potential for forward and backward transfer, as well as fast compositional generalization to unseen tasks.
- Abstract(参考訳): 目標を達成するためのスキルを継続的に学び、保持し、デプロイする能力は、インテリジェントで効率的な行動の重要な特徴です。
しかし、継続的な学習と柔軟な(再)構成を促進する神経機構は、いまだ解明されていない。
本稿では、新しい2システムアプローチを用いて、繰り返しニューラルネットワーク(RNN)モデルにおける連続学習と学習計算の合成再利用について検討する。
我々は、神経科学でよく研究される一連の構成的認知タスクに焦点をあてる。
このシステムを構築するために、まず、多くのタスクが確率的生成モデルによって体系的に記述できることを示し、そこでは、構成性は離散的なタスクエポックの共通基盤語彙に由来する。
共有エポック構造は、これらのタスクを本質的に構成的にする。
まず、この構成性は確率的生成モデルによって体系的に記述できることを示す。
さらに,本手法を単審で学習可能な教師なしオンライン学習手法を開発し,新たなタスクに曝露されるにつれて語彙を漸進的に構築し,試行中の時間変化のある計算コンテキストとして潜時エポック構造を推定する。
我々は,低ランクなコンポーネントがどのシステムから推定されるかに応じて構成されるRNNとしてシステムを実装する。
コンテキスト推論は、新しいタスクが順次導入されるにつれて、低ランクのRNNコンポーネントの作成、学習、再利用を促進する。
この2システム学習フレームワークの有効性と競争性能、前方・後方移行の可能性、および未知のタスクに対する高速な合成一般化を示す。
関連論文リスト
- Compositional meta-learning through probabilistic task inference [35.701036869822836]
本稿では,タスクを再利用可能な計算の構造化組み合わせとして表現する合成メタラーニングモデルを提案する。
このアプローチは、新しいタスクの学習を確率論的推論問題に変換する。
単一の例から新しいソリューションを素早く推測する能力を示す。
論文 参考訳(メタデータ) (2025-10-02T09:58:48Z) - A Unified Framework for Neural Computation and Learning Over Time [56.44910327178975]
Hamiltonian Learningはニューラルネットワークを"時間とともに"学習するための新しい統合フレームワーク
i)外部ソフトウェアソルバを必要とせずに統合できる、(ii)フィードフォワードおよびリカレントネットワークにおける勾配に基づく学習の概念を一般化する、(iii)新しい視点で開放する、という微分方程式に基づいている。
論文 参考訳(メタデータ) (2024-09-18T14:57:13Z) - Hierarchically Structured Task-Agnostic Continual Learning [0.0]
本研究では,連続学習のタスク非依存的な視点を取り入れ,階層的情報理論の最適性原理を考案する。
我々は,情報処理経路の集合を作成することで,忘れを緩和する,Mixture-of-Variational-Experts層と呼ばれるニューラルネットワーク層を提案する。
既存の連続学習アルゴリズムのようにタスク固有の知識を必要としない。
論文 参考訳(メタデータ) (2022-11-14T19:53:15Z) - Neural-Symbolic Recursive Machine for Systematic Generalization [113.22455566135757]
我々は、基底記号システム(GSS)のコアとなるニューラル・シンボリック再帰機械(NSR)を紹介する。
NSRは神経知覚、構文解析、意味推論を統合している。
我々はNSRの有効性を,系統的一般化能力の探索を目的とした4つの挑戦的ベンチマークで評価した。
論文 参考訳(メタデータ) (2022-10-04T13:27:38Z) - Learning and Compositionality: a Unification Attempt via Connectionist
Probabilistic Programming [11.06543250284755]
学習と構成性は人間のような知性をシミュレートする鍵となるメカニズムであると考えている。
本研究では,(学習のための)コネクショナリスト構造と(構成のための)確率的プログラム意味論を結びつけるフレームワークであるコネクショナリスト確率計画(CPP)を提案する。
論文 参考訳(メタデータ) (2022-08-26T17:20:58Z) - Lifelong Machine Learning of Functionally Compositional Structures [7.99536002595393]
この論文は、機能的な構成構造の生涯学習のための汎用的な枠組みを提示する。
このフレームワークは、学習を2つの段階に分ける: 既存のコンポーネントを組み合わせて新しい問題を同化する方法を学び、新しい問題に対応するために既存のコンポーネントを適応する方法を学ぶ。
教師付き学習評価の結果,1)構成モデルでは,多様なタスクの生涯学習が向上し,2)多段階のプロセスでは構成知識の生涯学習が可能となり,3)フレームワークが学習するコンポーネントは自己完結的かつ再利用可能な機能を表すことがわかった。
論文 参考訳(メタデータ) (2022-07-25T15:24:25Z) - Sparsely ensembled convolutional neural network classifiers via
reinforcement learning [0.0]
畳み込みニューラルネットワーク(CNN)は,最小動作原理にインスパイアされた目的関数で学習する。
我々はエージェントに事前学習した分類器の集合を通してイメージを知覚するように教え、その結果、動的に構成されたシステムに計算グラフを展開させたい。
実験の結果,エージェントが計算の動的(および文脈に依存した)構造を利用すると,従来のアンサンブル学習よりも優れることがわかった。
論文 参考訳(メタデータ) (2021-02-07T21:26:57Z) - Network Classifiers Based on Social Learning [71.86764107527812]
空間と時間に対して独立に訓練された分類器を結合する新しい手法を提案する。
提案したアーキテクチャは、ラベルのないデータで時間とともに予測性能を改善することができる。
この戦略は高い確率で一貫した学習をもたらすことが示され、未訓練の分類器に対して頑健な構造が得られる。
論文 参考訳(メタデータ) (2020-10-23T11:18:20Z) - Compositional Generalization by Learning Analytical Expressions [87.15737632096378]
メモリ拡張ニューラルモデルは、合成一般化を達成するために解析式に接続される。
良く知られたベンチマークSCANの実験は、我々のモデルが構成的一般化の優れた能力をつかむことを示した。
論文 参考訳(メタデータ) (2020-06-18T15:50:57Z) - Adversarial Continual Learning [99.56738010842301]
本稿では,タスク不変およびタスク特化機能に対する不整合表現を学習するハイブリッド連続学習フレームワークを提案する。
本モデルでは,タスク固有のスキルの忘れを防止するためにアーキテクチャの成長と,共有スキルを維持するための経験的リプレイアプローチを組み合わせる。
論文 参考訳(メタデータ) (2020-03-21T02:08:17Z) - A Neural Dirichlet Process Mixture Model for Task-Free Continual
Learning [48.87397222244402]
タスクフリー連続学習のための拡張型アプローチを提案する。
我々のモデルは、識別的タスクと生成的タスクの両方に対してタスクフリー連続学習を成功させる。
論文 参考訳(メタデータ) (2020-01-03T02:07:31Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。