論文の概要: Key-Value Pair-Free Continual Learner via Task-Specific Prompt-Prototype
- arxiv url: http://arxiv.org/abs/2601.04864v1
- Date: Thu, 08 Jan 2026 11:59:35 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-09 17:01:53.19083
- Title: Key-Value Pair-Free Continual Learner via Task-Specific Prompt-Prototype
- Title(参考訳): Task-Specific Prompt-Prototypeによるキーバリューペアフリー連続学習者
- Authors: Haihua Luo, Xuming Ran, Zhengji Li, Huiyan Xue, Tingting Jiang, Jiangrong Shen, Tommi Kärkkäinen, Qi Xu, Fengyu Cong,
- Abstract要約: 連続学習は、学習済みの情報を保持しながら、モデルが新しい知識を習得できるようにすることを目的としている。
タスク固有の Prompt-Prototype (ProP) を用いた新しいアプローチを提案する。
本手法では,タスク固有のプロンプトにより,現在のタスクのより効果的な特徴学習が促進され,対応するプロトタイプが入力の代表的な特徴をキャプチャする。
- 参考スコア(独自算出の注目度): 28.631643441543574
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Continual learning aims to enable models to acquire new knowledge while retaining previously learned information. Prompt-based methods have shown remarkable performance in this domain; however, they typically rely on key-value pairing, which can introduce inter-task interference and hinder scalability. To overcome these limitations, we propose a novel approach employing task-specific Prompt-Prototype (ProP), thereby eliminating the need for key-value pairs. In our method, task-specific prompts facilitate more effective feature learning for the current task, while corresponding prototypes capture the representative features of the input. During inference, predictions are generated by binding each task-specific prompt with its associated prototype. Additionally, we introduce regularization constraints during prompt initialization to penalize excessively large values, thereby enhancing stability. Experiments on several widely used datasets demonstrate the effectiveness of the proposed method. In contrast to mainstream prompt-based approaches, our framework removes the dependency on key-value pairs, offering a fresh perspective for future continual learning research.
- Abstract(参考訳): 連続学習は、学習済みの情報を保持しながら、モデルが新しい知識を習得できるようにすることを目的としている。
プロンプトベースの手法はこの領域で顕著な性能を示してきたが、通常はキー-値のペアリングに依存しており、これはタスク間干渉を導入しスケーラビリティを阻害する。
これらの制約を克服するために,タスク固有のPrompt-Prototype (ProP) を用いた新しい手法を提案する。
本手法では,タスク固有のプロンプトにより,現在のタスクのより効果的な特徴学習が促進され,対応するプロトタイプが入力の代表的な特徴をキャプチャする。
推論中、各タスク固有のプロンプトを関連するプロトタイプに結合することで予測が生成される。
さらに,急激な初期化時の正規化制約を導入し,過大な値のペナル化を行い,安定性を向上する。
提案手法の有効性を示すために, 広く利用されている複数のデータセットの実験を行った。
主流のプロンプトベースのアプローチとは対照的に、我々のフレームワークはキーと値のペアへの依存を排除し、将来の継続的な学習研究に新たな視点を提供する。
関連論文リスト
- Is Parameter Isolation Better for Prompt-Based Continual Learning? [46.254917907419895]
既存のほとんどのメソッドは、各タスクに一定のプロンプトのセットを割り当て、タスク間で知識を分離し、最適なパラメータの利用をもたらす。
このフレームワークはグローバルなプロンプトプールを構築し、タスク対応のゲートルーティング機構を導入し、プロンプトのサブセットをわずかに活性化する。
また,過剰な更新から頻繁に使用されるプロンプトを保護するために,累積的なプロンプトアクティベーション統計を利用する履歴対応モジュレータを導入する。
論文 参考訳(メタデータ) (2026-01-28T08:17:11Z) - All You Need is One: Capsule Prompt Tuning with a Single Vector [86.68105855537762]
現在のプロンプトベースの学習手法は、最適なプロンプトの長さを探索する努力的なグリッドに依存しており、典型的にはかなりの数のプロンプトを必要とする。
本稿では,Capsule Prompt-Tuning(CaPT)を紹介した。
提案手法は,インスタンス認識情報とタスク認識情報の両方をほぼパラメータフリーな方法で革新的に統合する。
論文 参考訳(メタデータ) (2025-10-19T00:02:59Z) - One-Prompt Strikes Back: Sparse Mixture of Experts for Prompt-based Continual Learning [52.966712416640085]
本稿では,タスク固有戦略と共有プロンプト戦略の両方の利点を統合する新しいフレームワークであるSMoPEを提案する。
SMoPEはタスク固有のプロンプトメソッドを一貫して上回り、最先端のアプローチと競合する性能を達成する。
論文 参考訳(メタデータ) (2025-09-29T08:54:58Z) - Towards Rehearsal-Free Continual Relation Extraction: Capturing Within-Task Variance with Adaptive Prompting [2.818102173042532]
WAVE++は、プレフィックスチューニングとエキスパートの混在にインスパイアされた、新しいアプローチである。
タスク固有のプロンプトプールを導入し、多様なタスクの柔軟性と適応性を高めます。
我々は、よりリッチでグローバルなコンテキストを提供するラベル記述を組み込み、モデルが異なる関係をよりよく区別できるようにする。
論文 参考訳(メタデータ) (2025-05-20T05:22:17Z) - Adaptive Prompting for Continual Relation Extraction: A Within-Task Variance Perspective [23.79259400522239]
本稿では,連続関係抽出における破滅的忘れに対処する新しい手法を提案する。
提案手法では各タスクにプロンプトプールを導入し,タスク内の変動を捉えるとともに,タスク間の差異を増大させる。
論文 参考訳(メタデータ) (2024-12-11T11:00:33Z) - Spurious Feature Eraser: Stabilizing Test-Time Adaptation for Vision-Language Foundation Model [86.9619638550683]
視覚言語基礎モデルは、画像とテキストのペアデータに拡張性があるため、多数の下流タスクで顕著な成功を収めている。
しかし、これらのモデルは、決定ショートカットの結果、きめ細かな画像分類などの下流タスクに適用した場合に重大な制限を呈する」。
論文 参考訳(メタデータ) (2024-03-01T09:01:53Z) - KOPPA: Improving Prompt-based Continual Learning with Key-Query Orthogonal Projection and Prototype-based One-Versus-All [24.50129285997307]
本稿では,新しいキークエリ学習戦略を導入し,マッチング効率を向上し,機能変更の課題に対処する。
提案手法は,現在の最先端手法を最大20%の差で超えた結果を達成するためのモデルである。
論文 参考訳(メタデータ) (2023-11-26T20:35:19Z) - Towards Robust Continual Learning with Bayesian Adaptive Moment Regularization [51.34904967046097]
継続的な学習は、モデルが以前に学習した情報を忘れてしまう破滅的な忘れ込みの課題を克服しようとする。
本稿では,パラメータ成長の制約を緩和し,破滅的な忘れを減らし,新しい事前手法を提案する。
以上の結果から, BAdamは, 単頭クラスインクリメンタル実験に挑戦する先行手法に対して, 最先端の性能を達成できることが示唆された。
論文 参考訳(メタデータ) (2023-09-15T17:10:51Z) - Instance-wise Prompt Tuning for Pretrained Language Models [72.74916121511662]
インスタンスワイドのPrompt Tuning(IPT)は、入力データインスタンスからプロンプトに知識を注入する最初のプロンプト学習パラダイムである。
IPTはタスクベースのプロンプト学習法を著しく上回り、調律パラメータのわずか0.5%から1.5%で従来の微調整に匹敵する性能を達成している。
論文 参考訳(メタデータ) (2022-06-04T10:08:50Z) - Continual Prompt Tuning for Dialog State Tracking [58.66412648276873]
望ましいダイアログシステムは、古いスキルを忘れずに継続的に新しいスキルを学ぶことができるべきである。
本稿では,タスク間の知識伝達を可能にするパラメータ効率フレームワークであるContinuous Prompt Tuningを提案する。
論文 参考訳(メタデータ) (2022-03-13T13:22:41Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。