論文の概要: Componential Prompt-Knowledge Alignment for Domain Incremental Learning
- arxiv url: http://arxiv.org/abs/2505.04575v1
- Date: Wed, 07 May 2025 17:12:15 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-08 19:07:36.161163
- Title: Componential Prompt-Knowledge Alignment for Domain Incremental Learning
- Title(参考訳): ドメインインクリメンタル学習のための成分的プロンプト知識アライメント
- Authors: Kunlun Xu, Xu Zou, Gang Hua, Jiahuan Zhou,
- Abstract要約: ドメインインクリメンタルラーニング(DIL)は、過去の知識を維持し、活用しながら、ドメインをまたいだ非定常データストリームから学習することを目的としている。
本稿では,コンポーネント認識型プロンプト知識アライメントを導入した新しいプロンプトベースのDIL手法である Componential Prompt-Knowledge Alignment (KA-Prompt) を提案する。
- 参考スコア(独自算出の注目度): 26.641936519254784
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Domain Incremental Learning (DIL) aims to learn from non-stationary data streams across domains while retaining and utilizing past knowledge. Although prompt-based methods effectively store multi-domain knowledge in prompt parameters and obtain advanced performance through cross-domain prompt fusion, we reveal an intrinsic limitation: component-wise misalignment between domain-specific prompts leads to conflicting knowledge integration and degraded predictions. This arises from the random positioning of knowledge components within prompts, where irrelevant component fusion introduces interference.To address this, we propose Componential Prompt-Knowledge Alignment (KA-Prompt), a novel prompt-based DIL method that introduces component-aware prompt-knowledge alignment during training, significantly improving both the learning and inference capacity of the model. KA-Prompt operates in two phases: (1) Initial Componential Structure Configuring, where a set of old prompts containing knowledge relevant to the new domain are mined via greedy search, which is then exploited to initialize new prompts to achieve reusable knowledge transfer and establish intrinsic alignment between new and old prompts. (2) Online Alignment Preservation, which dynamically identifies the target old prompts and applies adaptive componential consistency constraints as new prompts evolve. Extensive experiments on DIL benchmarks demonstrate the effectiveness of our KA-Prompt. Our source code is available at https://github.com/zhoujiahuan1991/ICML2025-KA-Prompt
- Abstract(参考訳): ドメインインクリメンタルラーニング(DIL)は、過去の知識を維持し、活用しながら、ドメインをまたいだ非定常データストリームから学習することを目的としている。
プロンプトベースの手法は,複数ドメインの知識をプロンプトパラメータに効果的に格納し,ドメイン間のプロンプト融合による高度な性能を得るが,本質的な制限を明らかにする: ドメイン固有のプロンプト間のコンポーネントワイドなミスアライメントは,知識統合と劣化予測に矛盾をもたらす。
本研究は,非関係なコンポーネント融合が干渉を起こすプロンプト内の知識コンポーネントのランダムな位置決めから生じ,この問題に対処するために,コンポーネント認識のプロンプト・アクセプションアライメントを導入した新しいプロンプトベースのDIL手法である Componential Prompt-Knowledge Alignment (KA-Prompt) を提案する。
1)新しいドメインに関する知識を含む古いプロンプトの集合を欲求探索によって採掘し、再利用可能な知識伝達を達成するために新しいプロンプトを初期化し、新しいプロンプトと古いプロンプトの間に固有のアライメントを確立する。
2) ターゲットの古いプロンプトを動的に識別し,新しいプロンプトが進化するにつれて適応的な成分整合性制約を適用するオンラインアライメント保存。
DILベンチマークに関する大規模な実験は、我々のKA-Promptの有効性を実証している。
ソースコードはhttps://github.com/zhoujiahuan 1991/ICML2025-KA-Promptで公開されている。
関連論文リスト
- CSTA: Spatial-Temporal Causal Adaptive Learning for Exemplar-Free Video Class-Incremental Learning [62.69917996026769]
クラスインクリメンタルな学習課題は、空間的外観と時間的行動の関与の両方を学習し、保存することを必要とする。
本稿では,各クラス固有のインクリメンタル情報要件を調整し,新しいクラスパターンを学習するためのアダプタを分離するフレームワークを提案する。
異なる種類の情報間のインクリメントと記憶の衝突を減らすために,因果補償機構を提案する。
論文 参考訳(メタデータ) (2025-01-13T11:34:55Z) - LW2G: Learning Whether to Grow for Prompt-based Continual Learning [15.766350352592331]
最近のPrompt-based Continual Learning (PCL) は、事前学習モデル(PTM)による顕著なパフォーマンスを実現している。
我々は,タスク間の相違に基づいて,成長するかどうか (LW2G) をtextbfLearn Wearn に送信するプラグインモジュールを提案する。
グラディエント・プロジェクションの継続学習にインスパイアされたLW2Gは、Hinder Forward Capability(HFC)と呼ばれるメトリクスを開発し、新しいタスクの学習に課される障害を測定する。
論文 参考訳(メタデータ) (2024-09-27T15:55:13Z) - Versatile Incremental Learning: Towards Class and Domain-Agnostic Incremental Learning [16.318126586825734]
インクリメンタルラーニング(IL)は、逐次入力タスクから知識を蓄積することを目的としている。
私たちはVersatile Incremental Learning (VIL) という,より挑戦的で現実的で,未探索のILシナリオを考えています。
Incremental with Shift cONtrol (ICON) という,シンプルで効果的なILフレームワークを提案する。
論文 参考訳(メタデータ) (2024-09-17T07:44:28Z) - CP-Prompt: Composition-Based Cross-modal Prompting for Domain-Incremental Continual Learning [15.393734346359064]
クロスモーダルドメイン増分学習(DIL)の主な課題は、学習モデルが新しいデータから継続的に学習できるようにすることである。
本稿では,制約パラメータをトレーニングし,事前学習したモデルに新しいドメインを学習させる,シンプルで効果的なフレームワークCP-Promptを提案する。
論文 参考訳(メタデータ) (2024-07-22T04:07:12Z) - Attend and Enrich: Enhanced Visual Prompt for Zero-Shot Learning [114.59476118365266]
視覚表現豊か化のための意味強調プロンプトを抽出するための視覚的プロンプトに意味情報を付与するAENetを提案する。
AENetは、2つの重要なステップから構成される: 1) 視覚的・属性的モダリティの概念調和トークンを探索し、一貫した視覚的セマンティックな概念を表す様相共有トークンに基づく。
論文 参考訳(メタデータ) (2024-06-05T07:59:48Z) - KnowPrefix-Tuning: A Two-Stage Prefix-Tuning Framework for
Knowledge-Grounded Dialogue Generation [37.36605012674462]
既存の知識基底型会話システムは、典型的には検索・仮説生成方式で応答を生成する。
本稿では,事前知識を軽量な知識接頭辞に注入することにより,検索プロセスをバイパスする2段階のチューニングフレームワークを提案する。
KnowPrefix-Tuningは、微調整や他の軽量チューニングアプローチよりも優れています。
論文 参考訳(メタデータ) (2023-06-27T12:38:49Z) - Evolving Knowledge Mining for Class Incremental Segmentation [113.59611699693092]
クラスインクリメンタルセマンティック(CISS)は、最近、現実世界のアプリケーションにおいて大きな重要性があるため、トレンドとなっている。
冷凍バックボーンを用いた新規なkNowleDgeマイニング法を提案する。
提案手法を2つの広く使用されているベンチマークで評価し,新しい最先端性能を一貫して示す。
論文 参考訳(メタデータ) (2023-06-03T07:03:15Z) - UNTER: A Unified Knowledge Interface for Enhancing Pre-trained Language
Models [100.4659557650775]
構造化知識と非構造化知識の両方を活用する統一的な視点を提供するために、統一知識インターフェイスUNTERを提案する。
どちらの形態の知識も注入され、UNTERは一連の知識駆動NLPタスクの継続的な改善を得る。
論文 参考訳(メタデータ) (2023-05-02T17:33:28Z) - Prior Knowledge Guided Unsupervised Domain Adaptation [82.9977759320565]
本稿では,対象とするクラス分布に関する事前知識を利用できる知識誘導型非教師付きドメイン適応(KUDA)設定を提案する。
特に,対象領域におけるクラス分布に関する2種類の事前知識について考察する。
このような事前知識を用いて生成した擬似ラベルを精査する修正モジュールを提案する。
論文 参考訳(メタデータ) (2022-07-18T18:41:36Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。