論文の概要: Key-Value Pair-Free Continual Learner via Task-Specific Prompt-Prototype
- arxiv url: http://arxiv.org/abs/2601.04864v1
- Date: Thu, 08 Jan 2026 11:59:35 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-09 17:01:53.19083
- Title: Key-Value Pair-Free Continual Learner via Task-Specific Prompt-Prototype
- Title(参考訳): Task-Specific Prompt-Prototypeによるキーバリューペアフリー連続学習者
- Authors: Haihua Luo, Xuming Ran, Zhengji Li, Huiyan Xue, Tingting Jiang, Jiangrong Shen, Tommi Kärkkäinen, Qi Xu, Fengyu Cong,
- Abstract要約: 連続学習は、学習済みの情報を保持しながら、モデルが新しい知識を習得できるようにすることを目的としている。
タスク固有の Prompt-Prototype (ProP) を用いた新しいアプローチを提案する。
本手法では,タスク固有のプロンプトにより,現在のタスクのより効果的な特徴学習が促進され,対応するプロトタイプが入力の代表的な特徴をキャプチャする。
- 参考スコア(独自算出の注目度): 28.631643441543574
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Continual learning aims to enable models to acquire new knowledge while retaining previously learned information. Prompt-based methods have shown remarkable performance in this domain; however, they typically rely on key-value pairing, which can introduce inter-task interference and hinder scalability. To overcome these limitations, we propose a novel approach employing task-specific Prompt-Prototype (ProP), thereby eliminating the need for key-value pairs. In our method, task-specific prompts facilitate more effective feature learning for the current task, while corresponding prototypes capture the representative features of the input. During inference, predictions are generated by binding each task-specific prompt with its associated prototype. Additionally, we introduce regularization constraints during prompt initialization to penalize excessively large values, thereby enhancing stability. Experiments on several widely used datasets demonstrate the effectiveness of the proposed method. In contrast to mainstream prompt-based approaches, our framework removes the dependency on key-value pairs, offering a fresh perspective for future continual learning research.
- Abstract(参考訳): 連続学習は、学習済みの情報を保持しながら、モデルが新しい知識を習得できるようにすることを目的としている。
プロンプトベースの手法はこの領域で顕著な性能を示してきたが、通常はキー-値のペアリングに依存しており、これはタスク間干渉を導入しスケーラビリティを阻害する。
これらの制約を克服するために,タスク固有のPrompt-Prototype (ProP) を用いた新しい手法を提案する。
本手法では,タスク固有のプロンプトにより,現在のタスクのより効果的な特徴学習が促進され,対応するプロトタイプが入力の代表的な特徴をキャプチャする。
推論中、各タスク固有のプロンプトを関連するプロトタイプに結合することで予測が生成される。
さらに,急激な初期化時の正規化制約を導入し,過大な値のペナル化を行い,安定性を向上する。
提案手法の有効性を示すために, 広く利用されている複数のデータセットの実験を行った。
主流のプロンプトベースのアプローチとは対照的に、我々のフレームワークはキーと値のペアへの依存を排除し、将来の継続的な学習研究に新たな視点を提供する。
関連論文リスト
- All You Need is One: Capsule Prompt Tuning with a Single Vector [86.68105855537762]
現在のプロンプトベースの学習手法は、最適なプロンプトの長さを探索する努力的なグリッドに依存しており、典型的にはかなりの数のプロンプトを必要とする。
本稿では,Capsule Prompt-Tuning(CaPT)を紹介した。
提案手法は,インスタンス認識情報とタスク認識情報の両方をほぼパラメータフリーな方法で革新的に統合する。
論文 参考訳(メタデータ) (2025-10-19T00:02:59Z) - Adaptive Prompting for Continual Relation Extraction: A Within-Task Variance Perspective [23.79259400522239]
本稿では,連続関係抽出における破滅的忘れに対処する新しい手法を提案する。
提案手法では各タスクにプロンプトプールを導入し,タスク内の変動を捉えるとともに,タスク間の差異を増大させる。
論文 参考訳(メタデータ) (2024-12-11T11:00:33Z) - Spurious Feature Eraser: Stabilizing Test-Time Adaptation for Vision-Language Foundation Model [86.9619638550683]
視覚言語基礎モデルは、画像とテキストのペアデータに拡張性があるため、多数の下流タスクで顕著な成功を収めている。
しかし、これらのモデルは、決定ショートカットの結果、きめ細かな画像分類などの下流タスクに適用した場合に重大な制限を呈する」。
論文 参考訳(メタデータ) (2024-03-01T09:01:53Z) - Towards Robust Continual Learning with Bayesian Adaptive Moment Regularization [51.34904967046097]
継続的な学習は、モデルが以前に学習した情報を忘れてしまう破滅的な忘れ込みの課題を克服しようとする。
本稿では,パラメータ成長の制約を緩和し,破滅的な忘れを減らし,新しい事前手法を提案する。
以上の結果から, BAdamは, 単頭クラスインクリメンタル実験に挑戦する先行手法に対して, 最先端の性能を達成できることが示唆された。
論文 参考訳(メタデータ) (2023-09-15T17:10:51Z) - Continual Prompt Tuning for Dialog State Tracking [58.66412648276873]
望ましいダイアログシステムは、古いスキルを忘れずに継続的に新しいスキルを学ぶことができるべきである。
本稿では,タスク間の知識伝達を可能にするパラメータ効率フレームワークであるContinuous Prompt Tuningを提案する。
論文 参考訳(メタデータ) (2022-03-13T13:22:41Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。