論文の概要: Active perception and disentangled representations allow continual, episodic zero and few-shot learning
- arxiv url: http://arxiv.org/abs/2602.19355v1
- Date: Sun, 22 Feb 2026 22:05:02 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-24 17:42:02.603994
- Title: Active perception and disentangled representations allow continual, episodic zero and few-shot learning
- Title(参考訳): 能動的知覚と非交叉表現は連続的、エピソード的、少数ショット学習を可能にする
- Authors: David Rawlinson, Gideon Kowadlo,
- Abstract要約: 一般化はしばしば機械学習システムの本質的な性質と見なされる。
本稿では,高速学習者が一般化を全面的に先導する補完学習システムについて述べる。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Generalization is often regarded as an essential property of machine learning systems. However, perhaps not every component of a system needs to generalize. Training models for generalization typically produces entangled representations at the boundaries of entities or classes, which can lead to destructive interference when rapid, high-magnitude updates are required for continual or few-shot learning. Techniques for fast learning with non-interfering representations exist, but they generally fail to generalize. Here, we describe a Complementary Learning System (CLS) in which the fast learner entirely foregoes generalization in exchange for continual zero-shot and few-shot learning. Unlike most CLS approaches, which use episodic memory primarily for replay and consolidation, our fast, disentangled learner operates as a parallel reasoning system. The fast learner can overcome observation variability and uncertainty by leveraging a conventional slow, statistical learner within an active perception system: A contextual bias provided by the fast learner induces the slow learner to encode novel stimuli in familiar, generalized terms, enabling zero-shot and few-shot learning. This architecture demonstrates that fast, context-driven reasoning can coexist with slow, structured generalization, providing a pathway for robust continual learning.
- Abstract(参考訳): 一般化はしばしば機械学習システムの本質的な性質と見なされる。
しかし、システムのすべてのコンポーネントが一般化する必要があるわけではない。
一般化のための訓練モデルは典型的には、エンティティやクラスの境界で絡み合った表現を生成し、連続的または少数ショットの学習に高速で高次更新を必要とする場合、破壊的な干渉を引き起こす。
非干渉表現を用いた高速学習技術は存在するが、一般に一般化に失敗する。
本稿では,高速学習者が連続的なゼロショットと少数ショット学習と引き換えに一般化を全面的に推し進める補完学習システム(CLS)について述べる。
主にリプレイと統合のためにエピソードメモリを使用するほとんどのCLSアプローチとは異なり、高速で非絡み合った学習者は並列推論システムとして機能する。
高速学習者が提供する文脈バイアスは、学習者が慣れ親しんだ、一般化された言葉で新しい刺激をエンコードし、ゼロショットと少数ショットの学習を可能にする。
このアーキテクチャは、高速でコンテキスト駆動の推論が遅く、構造化された一般化と共存できることを示し、堅牢な連続的な学習の経路を提供する。
関連論文リスト
- Retrieval-augmented Prompt Learning for Pre-trained Foundation Models [101.13972024610733]
本稿では,記憶と一般化のバランスをとることを目的としたRetroPromptを提案する。
従来のプロンプトメソッドとは異なり、RetroPromptは入力、トレーニング、推論ステージ全体にわたって検索メカニズムを組み込んでいる。
提案手法の優れた性能を示すために,自然言語処理やコンピュータビジョンタスクにまたがる様々なデータセットに関する総合的な実験を行った。
論文 参考訳(メタデータ) (2025-12-23T08:15:34Z) - Infinite dSprites for Disentangled Continual Learning: Separating Memory Edits from Generalization [36.23065731463065]
Infinite dSpritesは任意の長さの連続的な分類ベンチマークを作成するための擬似ツールである。
この単純なベンチマークでは、十分に長い時間をかけて、全ての主要な連続学習手法の性能が低下していることが示される。
生成因子を直接監督した簡単な設定では、学習階級に依存しない変換が破滅的な忘れを回避できる方法を示している。
論文 参考訳(メタデータ) (2023-12-27T22:05:42Z) - Continual Learning, Fast and Slow [75.53144246169346]
補完学習システム理論(Complementary Learning Systems theory)によれば、人間は2つの相補的なシステムを通して効果的な共連続学習を行う。
EmphDualNets(Dual Networks)は、タスクの教師付き学習のための高速学習システムと、自己監視学習(SSL)によるタスク非依存の汎用表現の表現学習のための遅い学習システムからなる、一般的な連続学習フレームワークである。
我々はDualNetsの有望な成果を、標準的なオフラインタスク認識設定から、オンラインタスクフリーシナリオまで、幅広い連続的な学習プロトコルで実証する。
論文 参考訳(メタデータ) (2022-09-06T10:48:45Z) - Decoupling Knowledge from Memorization: Retrieval-augmented Prompt
Learning [113.58691755215663]
一般化と記憶のバランスをとるためにRetroPromptを開発した。
バニラプロンプト学習とは対照的に、RetroPromptはトレーニングインスタンスからオープンブックナレッジストアを構築する。
大規模な実験により、RetroPromptは、数ショットとゼロショットの両方で、より良いパフォーマンスを得ることができることが示されている。
論文 参考訳(メタデータ) (2022-05-29T16:07:30Z) - Learning Fast, Learning Slow: A General Continual Learning Method based
on Complementary Learning System [13.041607703862724]
本稿では,新しいデュアルメモリエクスペリエンス再生(ER)法であるCLS-ERを提案する。
決定境界を意味記憶と整合させながら、新たな知識を得る。
提案手法は,標準ベンチマークにおける最先端性能を実現する。
論文 参考訳(メタデータ) (2022-01-29T15:15:23Z) - DualNet: Continual Learning, Fast and Slow [14.902239050081032]
我々は「DualNet」という新しい連続学習フレームワークを提案する。
特定のタスクからパターン分離表現を教師付き学習する高速学習システムと、自己監視学習(SSL)技術を介してタスク非依存の汎用表現を教師なしで表現する緩やかな学習システムとから構成される。
実験の結果、DualNetは最先端の連続学習手法よりも大きなマージンで優れていることがわかった。
論文 参考訳(メタデータ) (2021-10-01T02:31:59Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。