論文の概要: Prompt-Based Continual Compositional Zero-Shot Learning
- arxiv url: http://arxiv.org/abs/2512.09172v2
- Date: Wed, 17 Dec 2025 12:41:30 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-12-18 15:03:26.905246
- Title: Prompt-Based Continual Compositional Zero-Shot Learning
- Title(参考訳): プロンプトに基づく連続合成ゼロショット学習
- Authors: Sauda Maryam, Sara Nadeem, Faisal Qureshi, Mohsen Ali,
- Abstract要約: 合成ゼロショット学習(CZSL)における視覚言語モデルの新たな属性、オブジェクト、およびそれらの構成への継続的な適応に取り組む。
クラスが結合しない古典的な連続学習とは異なり、CCZSLは属性やオブジェクトがセッション間で再起し、構成は独特なままである。
凍結したVLMバックボーン上に構築されたPmptベースの連続合成ゼロショット学習フレームワークを提案する。
- 参考スコア(独自算出の注目度): 4.672326975246762
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We tackle continual adaptation of vision-language models to new attributes, objects, and their compositions in Compositional Zero-Shot Learning (CZSL), while preventing forgetting of prior knowledge. Unlike classical continual learning where classes are disjoint, CCZSL is more complex as attributes and objects may reoccur across sessions while compositions remain unique. Built on a frozen VLM backbone, we propose the first Prompt-based Continual Compositional Zero-Shot Learning (PromptCCZSL) framework that retains prior knowledge through recency-weighted multi-teacher distillation. It employs session-aware compositional prompts to fuse multimodal features for new compositions, while attribute and object prompts are learned through session-agnostic fusion to maintain global semantic consistency, which is further stabilized by a Cosine Anchor Loss (CAL) to preserve prior knowledge. To enhance adaptation in the current session, an Orthogonal Projection Loss (OPL) ensures that new attribute and object embeddings remain distinct from previous ones, preventing overlap, while an Intra-Session Diversity Loss (IDL) promotes variation among current-session embeddings for richer, more discriminative representations. We also introduce a comprehensive protocol that jointly measures catastrophic forgetting and compositional generalization. Extensive experiments on UT-Zappos and C-GQA benchmarks demonstrate that PromptCCZSL achieves substantial improvements over prior VLM-based and non-VLM baselines, setting a new benchmark for CCZSL in closed-world settings.
- Abstract(参考訳): 本研究では,CZSLにおける視覚言語モデルの新たな属性,オブジェクト,およびそれらの構成への継続的な適応に取り組み,事前知識の忘れを防止した。
クラスが結合しない古典的な連続学習とは異なり、CCZSLは属性やオブジェクトがセッション間で再起し、構成は独特なままである。
凍結したVLMバックボーン上に構築したPmpt-based Continual Compositional Zero-Shot Learning (PromptCCZSL) フレームワークを提案する。
セッションアウェアなコンポジションプロンプトを使用して、新しいコンポジションにマルチモーダルな特徴を融合する一方、属性とオブジェクトプロンプトは、グローバルなセマンティック一貫性を維持するためにセッション非依存の融合を通じて学習される。
現在のセッションの適応性を高めるために、直交射影損失(OPL)は、新しい属性とオブジェクトの埋め込みが以前のものと異なっていることを保証し、重複を防止し、一方、セッション内多様性損失(IDL)はよりリッチで差別的な表現のために、現在のセッションの埋め込みの変化を促進する。
また、破滅的な忘れと構成の一般化を共同で測定する包括的プロトコルも導入する。
UT-ZapposとC-GQAベンチマークの大規模な実験により、PromptCCZSLはVLMベースおよび非VLMベースラインよりも大幅に改善され、CCZSLの新しいベンチマークがクローズドワールド設定で設定された。
関連論文リスト
- CASP: Few-Shot Class-Incremental Learning with CLS Token Attention Steering Prompts [15.650117316903925]
FSCIL(Few-shot class-incremental Learning)は、継続的な学習における中核的な課題である。
最近のプロンプトベースの手法は、事前訓練されたバックボーンとタスク固有のプロンプトを統合しており、顕著な進歩を遂げている。
我々は CLS Token Attention Steering Prompts (CASP) を提案する。
論文 参考訳(メタデータ) (2026-01-23T14:19:04Z) - Continual Learning for VLMs: A Survey and Taxonomy Beyond Forgetting [70.83781268763215]
視覚言語モデル(VLM)は、大規模事前学習を活用することで、多様なマルチモーダルタスクにおいて優れたパフォーマンスを実現している。
VLMは、クロスモーダル機能ドリフト、共有アーキテクチャによるパラメータ干渉、ゼロショット機能侵食など、ユニークな課題に直面している。
本調査は、生涯の視覚言語システムを開発する研究者にとって、包括的かつ診断的な基準となることを目的としている。
論文 参考訳(メタデータ) (2025-08-06T09:03:10Z) - Harnessing Textual Semantic Priors for Knowledge Transfer and Refinement in CLIP-Driven Continual Learning [47.56496248878093]
継続的な学習は、過去の知識を忘れずにタスクの流れから学習する能力をモデルに装備することを目的としている。
本稿では,テキスト先行のアンチフォッゲッティングと構造化の性質を利用した統合フレームワークを提案し,セマンティック・アウェア・ナレッジ・トランスファーを導く。
論文 参考訳(メタデータ) (2025-08-03T04:09:00Z) - Continual Learning on CLIP via Incremental Prompt Tuning with Intrinsic Textual Anchors [50.7383184560431]
連続学習(CL)は、破滅的な忘れ込みを避けながら、ディープネットワークが新たな知識を得ることを可能にする。
インクリメンタルなプロンプトチューニングに基づくCLIPのための簡潔なCLアプローチを提案する。
我々の双方向監視戦略は、忘れを減らしながら、新しい知識をより効果的に学習することを可能にする。
論文 参考訳(メタデータ) (2025-05-27T03:51:37Z) - A Unified Gradient-based Framework for Task-agnostic Continual Learning-Unlearning [30.2773429357068]
近年の深層モデルの進歩は、知識獲得のための連続学習(CL)とデータ除去のための機械アンラーニング(MU)を組み合わせたインテリジェントシステムの必要性を強調している。
Kullback-Leibler の発散最小化に基づく統一最適化フレームワークにより,本質的な接続を明らかにする。
実験により、提案したUG-CLUフレームワークは、複数のデータセットやモデルアーキテクチャにわたるインクリメンタルラーニング、正確なアンラーニング、知識安定性を効果的に調整することを示した。
論文 参考訳(メタデータ) (2025-05-21T06:49:05Z) - CalFuse: Multi-Modal Continual Learning via Feature Calibration and Parameter Fusion [17.68751409041168]
クラス・コンチネンタル・ラーニング(CCL)は、歴史データを再考することなく、新たなクラス知識を段階的に取り入れることで、この課題に対処する。
CLIPのようなビジョンランゲージモデル(VLM)の最近の進歩は、事前訓練されたマルチモーダル知識を活用することで、CCLにとって重要な可能性を示している。
本稿では,マルチモーダルな知識統合を実現するために,特徴パラメータFusionを相乗化するフレームワークであるCalFuseを提案する。
論文 参考訳(メタデータ) (2025-03-24T13:44:12Z) - Continuous Knowledge-Preserving Decomposition with Adaptive Layer Selection for Few-Shot Class-Incremental Learning [73.59672160329296]
CKPD-FSCILは、事前訓練された重量の未使用容量を解放する統合フレームワークである。
本手法は,適応性と知識保持の両面で,最先端の手法より一貫して優れている。
論文 参考訳(メタデータ) (2025-01-09T07:18:48Z) - Compositional Zero-Shot Learning with Contextualized Cues and Adaptive Contrastive Training [17.893694262999826]
本稿では,コンポジションゼロショット学習(CZSL)における属性とオブジェクト(ULAO)の理解とリンクに関する新しい枠組みを紹介する。
ULAOは2つの革新的なモジュールから構成されている。理解属性とオブジェクト(UAO)モジュールは、逐次原始予測によって原始的理解を改善し、認識されたオブジェクトを属性分類の文脈的ヒントとして活用する。
Linking Attributes and Objects (LAO)モジュールは、調整されたハードネガティブ生成と適応的損失調整を含む新しいコントラスト学習戦略を通じて、属性オブジェクトのリンク理解を改善する。
論文 参考訳(メタデータ) (2024-12-10T03:41:20Z) - Graph-guided Cross-composition Feature Disentanglement for Compositional Zero-shot Learning [54.08741382593959]
合成ゼロショット学習(CZSL)において、プリミティブ(属性とオブジェクト)の視覚的特徴の歪みは例外的な結果を示した。
異なる構成にまたがる一般的な非絡み合った原始的特徴を学ぶことは困難である。
本稿では,複数のプリミティブ共有合成を入力として利用するクロスコンポジション特徴分散の解を提案する。
論文 参考訳(メタデータ) (2024-08-19T08:23:09Z) - CSCNET: Class-Specified Cascaded Network for Compositional Zero-Shot
Learning [62.090051975043544]
属性とオブジェクト(A-O)の絡み合いは、合成ゼロショット学習(CZSL)の基本的かつ重要な問題である
CZSL(Class-specified Cascaded Network, CSCNet)のための新しいA-O不整合フレームワークを提案する。
論文 参考訳(メタデータ) (2024-03-09T14:18:41Z) - DRPT: Disentangled and Recurrent Prompt Tuning for Compositional
Zero-Shot Learning [15.580557941267095]
状態とオブジェクトのプリミティブは、プロンプトに埋め込まれ、目に見えない構成にチューニングされた語彙の学習可能なトークンと見なされる。
プロンプトを段階的に更新できるプログレッシブな微調整手順を開発した。
合成ゼロショット学習における絡み合いの定量化と解析を行う。
論文 参考訳(メタデータ) (2023-05-02T07:42:47Z) - KG-SP: Knowledge Guided Simple Primitives for Open World Compositional
Zero-Shot Learning [52.422873819371276]
オープンワールドコンポジションゼロショット学習(OW-CZSL)の目的は、画像中の状態とオブジェクトの合成を認識することである。
ここでは、単純なCZSLベースラインを再検討し、プリミティブ、すなわち状態とオブジェクトを独立して予測する。
出力空間から不可能な構成を除去するために, 外部知識を用いて各構成の有効性を推定する。
我々のモデルであるKG-SPはOW-CZSLとpCZSLの両方で技術の状態を達成する。
論文 参考訳(メタデータ) (2022-05-13T17:18:15Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。