論文の概要: FlyPrompt: Brain-Inspired Random-Expanded Routing with Temporal-Ensemble Experts for General Continual Learning
- arxiv url: http://arxiv.org/abs/2602.01976v2
- Date: Tue, 03 Feb 2026 07:40:27 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-04 16:18:58.866162
- Title: FlyPrompt: Brain-Inspired Random-Expanded Routing with Temporal-Ensemble Experts for General Continual Learning
- Title(参考訳): FlyPrompt: 一般学習のための時間的アンサンブルエキスパートによる脳誘発ランダム拡張ルーティング
- Authors: Hongwei Yan, Guanglong Sun, Kanglei Zhou, Qian Li, Liyuan Wang, Yi Zhong,
- Abstract要約: 汎用連続学習(GCL)は、タスク境界をクリアにすることなく、シングルパス、非定常データストリームから学習するインテリジェントシステムに挑戦する。
FlyPromptは脳にインスパイアされたフレームワークで、GCLを2つのサブプロブレムに分解する。
- 参考スコア(独自算出の注目度): 28.78785349011036
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: General continual learning (GCL) challenges intelligent systems to learn from single-pass, non-stationary data streams without clear task boundaries. While recent advances in continual parameter-efficient tuning (PET) of pretrained models show promise, they typically rely on multiple training epochs and explicit task cues, limiting their effectiveness in GCL scenarios. Moreover, existing methods often lack targeted design and fail to address two fundamental challenges in continual PET: how to allocate expert parameters to evolving data distributions, and how to improve their representational capacity under limited supervision. Inspired by the fruit fly's hierarchical memory system characterized by sparse expansion and modular ensembles, we propose FlyPrompt, a brain-inspired framework that decomposes GCL into two subproblems: expert routing and expert competence improvement. FlyPrompt introduces a randomly expanded analytic router for instance-level expert activation and a temporal ensemble of output heads to dynamically adapt decision boundaries over time. Extensive theoretical and empirical evaluations demonstrate FlyPrompt's superior performance, achieving up to 11.23%, 12.43%, and 7.62% gains over state-of-the-art baselines on CIFAR-100, ImageNet-R, and CUB-200, respectively. Our source code is available at https://github.com/AnAppleCore/FlyGCL.
- Abstract(参考訳): 汎用連続学習(GCL)は、タスク境界をクリアにすることなく、シングルパス、非定常データストリームから学習するインテリジェントシステムに挑戦する。
事前訓練されたモデルの連続的パラメータ係数チューニング(PET)の最近の進歩は将来性を示しているが、一般的には複数のトレーニングエポックと明示的なタスクキューに依存しており、GCLシナリオにおける有効性を制限している。
さらに、既存の手法はターゲット設計を欠き、データ分散の進化に専門家パラメータを割り当てる方法と、限られた監督下で表現能力を改善する方法の2つの基本的な課題に対処できないことが多い。
本研究では,GCLを2つのサブプロブレムに分解するFlyPromptを提案する。
FlyPromptは、インスタンスレベルのエキスパートアクティベーションのためのランダムに拡張された分析ルータと、時間とともに決定境界を動的に適応する出力ヘッドの時間的アンサンブルを導入している。
CIFAR-100、ImageNet-R、CUB-200といった最先端のベースラインよりも11.23%、12.43%、そして7.62%向上した。
ソースコードはhttps://github.com/AnAppleCore/FlyGCLで公開されています。
関連論文リスト
- Sample-Efficient Neurosymbolic Deep Reinforcement Learning [49.60927398960061]
本稿では,背景記号知識を統合し,サンプル効率を向上させるニューロシンボリックディープRL手法を提案する。
オンライン推論は2つのメカニズムを通じてトレーニングプロセスのガイドを行う。
我々は、最先端の報奨機ベースラインよりも優れた性能を示す。
論文 参考訳(メタデータ) (2026-01-06T09:28:53Z) - Nemotron-Cascade: Scaling Cascaded Reinforcement Learning for General-Purpose Reasoning Models [71.9060068259379]
汎用推論モデルを構築するために,ケースド・ドメインワイド強化学習を提案する。
私たちの14Bモデルは、RLの後、LiveCodeBench v5/v6 ProでSFTの教師であるDeepSeek-R1-0528を上回り、インフォマティクスにおける2025 International Olympiad in Informatics (IOI)における銀の医療性能を上回りました。
論文 参考訳(メタデータ) (2025-12-15T18:02:35Z) - Deepfake Detection that Generalizes Across Benchmarks [48.85953407706351]
ディープフェイク検出器の非表示操作技術への一般化は、実用的展開の課題である。
この研究は、基礎となる事前学習された視覚エンコーダのパラメータ効率適応により、ロバストな一般化が達成可能であることを示す。
提案手法は、平均的クロスデータセットAUROCにおける、より複雑な、最新のアプローチよりも優れた、最先端の性能を実現する。
論文 参考訳(メタデータ) (2025-08-08T12:03:56Z) - DUKAE: DUal-level Knowledge Accumulation and Ensemble for Pre-Trained Model-Based Continual Learning [19.684132921720945]
事前学習型モデルベース連続学習(PTMCL)は,新たな知識のより迅速な獲得を可能にするため,注目を集めている。
本稿では,機能レベルと意思決定レベルの知識蓄積を両立させるDual-level Knowledge Accumulation and Ensemble(DUKAE)を提案する。
CIFAR-100、ImageNet-R、CUB-200、Cars-196データセットの実験は、我々のアプローチの優れた性能を示している。
論文 参考訳(メタデータ) (2025-04-09T01:40:38Z) - Advancing Prompt-Based Methods for Replay-Independent General Continual Learning [44.94466949172424]
一般連続学習(GCL)は、現実世界の連続学習(CL)問題を記述するための幅広い概念である。
このような要求は、初期性能の低下、限定的な一般化可能性、深刻な破滅的な忘れ込みをもたらす。
本稿では,MISA (Mask and Initial Session Adaption) という新しい手法を提案する。
論文 参考訳(メタデータ) (2025-03-02T00:58:18Z) - Hierarchical Decomposition of Prompt-Based Continual Learning:
Rethinking Obscured Sub-optimality [55.88910947643436]
大量のラベルのないデータを実際に扱うためには、自己教師付き事前トレーニングが不可欠である。
HiDe-Promptは、タスク固有のプロンプトと統計のアンサンブルで階層的なコンポーネントを明示的に最適化する革新的なアプローチである。
実験では,HiDe-Promptの優れた性能と,継続学習における事前学習パラダイムへの頑健さを実証した。
論文 参考訳(メタデータ) (2023-10-11T06:51:46Z) - Self-regulating Prompts: Foundational Model Adaptation without
Forgetting [112.66832145320434]
本稿では,PromptSRCと呼ばれる自己正規化フレームワークを提案する。
PromptSRCはタスク固有の汎用表現とタスクに依存しない汎用表現の両方に最適化するプロンプトを導く。
論文 参考訳(メタデータ) (2023-07-13T17:59:35Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。