論文の概要: Dream2Learn: Structured Generative Dreaming for Continual Learning
- arxiv url: http://arxiv.org/abs/2603.01935v1
- Date: Mon, 02 Mar 2026 14:52:10 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-03-03 19:50:56.916812
- Title: Dream2Learn: Structured Generative Dreaming for Continual Learning
- Title(参考訳): Dream2Learn:継続的学習のための構造化された生成ドリーム
- Authors: Salvatore Calcagno, Matteo Pennisi, Federica Proietto Salanitri, Amelia Sorrenti, Simone Palazzo, Concetto Spampinato, Giovanni Bellitto,
- Abstract要約: モデルが自己内部表現から構造化された合成体験を自律的に生成するフレームワークであるDream2Learnを紹介する。
夢のクラスを継続的な訓練に組み込むことで、D2Lは前向きの知識伝達と将来のタスクへの適応をサポートするために、潜在機能を積極的に構成する。
- 参考スコア(独自算出の注目度): 15.555279110364706
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Continual learning requires balancing plasticity and stability while mitigating catastrophic forgetting. Inspired by human dreaming as a mechanism for internal simulation and knowledge restructuring, we introduce Dream2Learn (D2L), a framework in which a model autonomously generates structured synthetic experiences from its own internal representations and uses them for self-improvement. Rather than reconstructing past data as in generative replay, D2L enables a classifier to create novel, semantically distinct dreamed classes that are coherent with its learned knowledge yet do not correspond to previously observed data. These dreamed samples are produced by conditioning a frozen diffusion model through soft prompt optimization driven by the classifier itself. The generated data are not used to replace memory, but to expand and reorganize the representation space, effectively allowing the network to self-train on internally synthesized concepts. By integrating dreamed classes into continual training, D2L proactively structures latent features to support forward knowledge transfer and adaptation to future tasks. This prospective self-training mechanism mirrors the role of sleep in consolidating and reorganizing memory, turning internal simulations into a tool for improved generalization. Experiments on Mini-ImageNet, FG-ImageNet, and ImageNet-R demonstrate that D2L consistently outperforms strong rehearsal-based baselines and achieves positive forward transfer, confirming its ability to enhance adaptability through internally generated training signals.
- Abstract(参考訳): 継続的な学習は、破滅的な忘れを緩和しながら、可塑性と安定性のバランスをとる必要がある。
内的シミュレーションと知識再構成のメカニズムとして,人間の夢に触発されたDream2Learn(D2L)は,モデルが自己内的表現から構造化された合成体験を自律的に生成し,自己改善に使用するフレームワークである。
生成的リプレイのように過去のデータを再構成するのではなく、D2Lは分類器が学習知識と整合性を持ちながら、以前に観察されたデータに対応していない新しい、意味的に異なる夢のクラスを作成することができる。
これらの夢のサンプルは、分類器自体によって駆動されるソフトプロンプト最適化によって凍結拡散モデルを条件付けすることによって生成される。
生成されたデータはメモリを置き換えるためにではなく、表現空間を拡張して再編成するために使われ、ネットワークは内部的に合成された概念で自己学習できる。
夢のクラスを継続的な訓練に組み込むことで、D2Lは前向きの知識伝達と将来のタスクへの適応をサポートするために、潜在機能を積極的に構成する。
この前向きな自己学習機構は、記憶の強化と再構成における睡眠の役割を反映し、内部シミュレーションを一般化を改善するツールに変える。
Mini-ImageNet、FG-ImageNet、ImageNet-Rの実験では、D2Lは強いリハーサルベースラインを一貫して上回り、正の転送を実現し、内部で生成されたトレーニング信号を通じて適応性を高める能力を確認する。
関連論文リスト
- Modular Memory is the Key to Continual Learning Agents [100.09688599754465]
In-Weight Learning(IWL)の強みと、モジュラーメモリの設計を通じて新たに登場したIn-Context Learning(ICL)の機能を組み合わせることが、大規模に継続的適応するための欠片である、と我々は主張する。
我々は、ICLを高速適応と知識蓄積に活用するモジュール型メモリ中心アーキテクチャの概念的フレームワークと、モデル機能の安定した更新のためのIWLについて概説する。
論文 参考訳(メタデータ) (2026-03-02T11:40:05Z) - Synergizing Understanding and Generation with Interleaved Analyzing-Drafting Thinking [154.2388970262703]
Unified Vision-Language Models (UVLM) は、単一のフレームワーク内での理解と生成の両方をサポートすることで、マルチモーダル学習を促進することを目的としている。
本稿では,解析処理と起案処理を交互に行う新たな思考パラダイムである,インターリーブド・アナライジング・ドレイティング問題解決ループ(AD-Loop)を紹介する。
テキスト思考を視覚的思考とインターリーブすることで、AD-Loopはモデルが理解と出力の両方を反復的に洗練し、真のシナジーを育むことができる。
論文 参考訳(メタデータ) (2026-02-24T23:26:09Z) - Arcadia: Toward a Full-Lifecycle Framework for Embodied Lifelong Learning [80.6669596031697]
閉ループフレームワークであるArcadiaを導入し,4段階を密結合させることで生涯学習を実践する。
Arcadiaは、ナビゲーションと操作ベンチマークに一貫した利益をもたらし、物理的なロボットにしっかりと転送する。
論文 参考訳(メタデータ) (2025-11-25T07:26:00Z) - From Seeing to Experiencing: Scaling Navigation Foundation Models with Reinforcement Learning [59.88543114325153]
本稿では,航法基礎モデルの強化学習能力を高めるためのSeeing-to-Experiencingフレームワークを提案する。
S2Eは、ビデオの事前トレーニングとRLによるポストトレーニングの長所を組み合わせたものだ。
実世界のシーンを3DGSで再現した3D画像に基づく総合的なエンドツーエンド評価ベンチマークであるNavBench-GSを構築した。
論文 参考訳(メタデータ) (2025-07-29T17:26:10Z) - A Neural Network Model of Complementary Learning Systems: Pattern Separation and Completion for Continual Learning [2.9123921488295768]
事前知識を忘れずに新しい情報を学ぶことは、人間の知性の中心である。
対照的に、ニューラルネットワークモデルは、新しい情報を取得する際に破滅的な忘れに苦しむ。
我々は、最先端の精度(90%)に近づいた、神経学的にもっともらしい連続学習モデルを開発する。
本研究は, 生体および人工システムにおいて, メモリ統合, 一般化, 継続学習をモデル化するための機能テンプレートを提供する。
論文 参考訳(メタデータ) (2025-07-15T15:05:26Z) - KPFlow: An Operator Perspective on Dynamic Collapse Under Gradient Descent Training of Recurrent Networks [9.512147747894026]
勾配流を2つの作用素を含む積に分解する方法を示す。
それらの相互作用がGDの下での低次元潜在力学にどのように影響するかを示す。
マルチタスクトレーニングでは,各サブタスクの目的がどのように一致しているかを演算子を用いて測定できることが示される。
論文 参考訳(メタデータ) (2025-07-08T20:33:15Z) - DDAE++: Enhancing Diffusion Models Towards Unified Generative and Discriminative Learning [53.27049077100897]
生成前訓練は差別的な表現をもたらし、統一された視覚生成と理解への道を開くことが示されている。
この研究は自己条件付けを導入し、ネットワークに固有のリッチなセマンティクスを内部的に活用し、独自のデコード層をガイドする。
提案手法は、FIDの生成と認識の精度を1%の計算オーバーヘッドで向上させ、多様な拡散アーキテクチャで一般化する。
論文 参考訳(メタデータ) (2025-05-16T08:47:16Z) - MuDreamer: Learning Predictive World Models without Reconstruction [58.0159270859475]
本稿では,DreamerV3アルゴリズムに基づく堅牢な強化学習エージェントであるMuDreamerについて述べる。
本手法は,Atari100kベンチマークにおいて,より高速なトレーニングの恩恵を受けながら,同等のパフォーマンスを実現する。
論文 参考訳(メタデータ) (2024-05-23T22:09:01Z) - Wake-Sleep Consolidated Learning [9.596781985154927]
視覚分類タスクにおける深層ニューラルネットワークの性能向上を目的としたWake-Sleep Consolidated Learningを提案する。
本手法は、異なる覚醒相と睡眠相の同期を通して連続的に学習する。
提案手法の有効性を3つのベンチマークデータセットで評価した。
論文 参考訳(メタデータ) (2023-12-06T18:15:08Z) - Dual Cognitive Architecture: Incorporating Biases and Multi-Memory
Systems for Lifelong Learning [21.163070161951868]
本稿では,複数のサブシステム,暗黙的かつ明示的な知識表現,帰納的バイアス,マルチメモリシステムを含むDual Cognitive Architecture(DUCA)を紹介する。
DUCAはさまざまな設定やデータセットにまたがって改善を示し、余分な情報を必要とせずにタスクの遅延バイアスを低減している。
分散シフトが困難な場合の生涯学習手法の汎用性をさらに検証するため,ドメイン・インクリメンタル・データセットDN4ILを導入する。
論文 参考訳(メタデータ) (2023-10-17T15:24:02Z) - SELF: Self-Evolution with Language Feedback [68.6673019284853]
SELF(Self-Evolution with Language Feedback)は、大規模言語モデルを進化させる新しいアプローチである。
LLMは、人間の学習プロセスと同様、自己回帰を通じて自己改善を可能にする。
数学および一般タスクにおける実験により,SELFは人間の介入なしにLLMの能力を高めることができることが示された。
論文 参考訳(メタデータ) (2023-10-01T00:52:24Z) - Cognitively Inspired Learning of Incremental Drifting Concepts [31.3178953771424]
神経系学習機構にインスパイアされた我々は、ディープニューラルネットワークが新しい概念を学習することを可能にする計算モデルを開発した。
我々のモデルは、過去の学習経験に新たな経験を蓄積し、タスク間の干渉を引き起こすことなく擬似データポイントを生成することができる。
論文 参考訳(メタデータ) (2021-10-09T23:26:29Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。