論文の概要: Hierarchical Semantic Tree Anchoring for CLIP-Based Class-Incremental Learning
- arxiv url: http://arxiv.org/abs/2511.15633v1
- Date: Wed, 19 Nov 2025 17:14:47 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-20 15:51:28.919862
- Title: Hierarchical Semantic Tree Anchoring for CLIP-Based Class-Incremental Learning
- Title(参考訳): CLIPに基づくクラスインクリメンタル学習のための階層的セマンティックツリーアンカリング
- Authors: Tao Hu, Lan Li, Zhen-Hao Xie, Da-Wei Zhou,
- Abstract要約: クラスインクリメンタルラーニング(Class-Incremental Learning, CIL)は、モデルが過去の知識を保ちながら、新しいクラスを継続的に学習することを可能にする。
しかし、現実世界の視覚的および言語的概念は本質的に階層的である。
本稿では,CILに階層的な情報を固定し,破滅的な忘れを抑えるHASTENを提案する。
- 参考スコア(独自算出の注目度): 11.82771798674077
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Class-Incremental Learning (CIL) enables models to learn new classes continually while preserving past knowledge. Recently, vision-language models like CLIP offer transferable features via multi-modal pre-training, making them well-suited for CIL. However, real-world visual and linguistic concepts are inherently hierarchical: a textual concept like "dog" subsumes fine-grained categories such as "Labrador" and "Golden Retriever," and each category entails its images. But existing CLIP-based CIL methods fail to explicitly capture this inherent hierarchy, leading to fine-grained class features drift during incremental updates and ultimately to catastrophic forgetting. To address this challenge, we propose HASTEN (Hierarchical Semantic Tree Anchoring) that anchors hierarchical information into CIL to reduce catastrophic forgetting. First, we employ an external knowledge graph as supervision to embed visual and textual features in hyperbolic space, effectively preserving hierarchical structure as data evolves. Second, to mitigate catastrophic forgetting, we project gradients onto the null space of the shared hyperbolic mapper, preventing interference with prior tasks. These two steps work synergistically to enable the model to resist forgetting by maintaining hierarchical relationships. Extensive experiments show that HASTEN consistently outperforms existing methods while providing a unified structured representation.
- Abstract(参考訳): クラスインクリメンタルラーニング(Class-Incremental Learning, CIL)は、モデルが過去の知識を保ちながら、新しいクラスを継続的に学習することを可能にする。
近年、CLIPのようなビジョン言語モデルは、マルチモーダル事前トレーニングを通じて転送可能な機能を提供するため、CILに適している。
しかしながら、現実世界の視覚的・言語的概念は本質的に階層的であり、「犬」のようなテキスト的概念は「ラブラドール」や「ゴールド・レトリバー」のような細かなカテゴリを仮定し、それぞれのカテゴリはそのイメージを包含する。
しかし、既存のCLIPベースのCILメソッドは、この固有の階層を明示的にキャプチャすることができない。
この課題に対処するために, 階層的な情報をCILに固定し, 破滅的な忘れを抑えるHASTEN(hierarchical Semantic Tree Anchoring)を提案する。
まず、外的知識グラフを用いて、双曲空間に視覚的・テキスト的特徴を埋め込んで、データが進化するにつれて階層構造を効果的に保存する。
第二に、破滅的な忘れを緩和するために、共有双曲マッパーのヌル空間に勾配を投影し、以前のタスクの干渉を防ぐ。
これらの2つのステップは、階層的な関係を維持することによって、モデルを忘れることに抵抗できるようにするために相乗的に機能する。
大規模な実験により、HASTENは、統一された構造化された表現を提供しながら、既存のメソッドを一貫して上回ります。
関連論文リスト
- Hierarchical Representation Matching for CLIP-based Class-Incremental Learning [80.2317078787969]
クラスインクリメンタルラーニング(Class-Incremental Learning, CIL)は、進化するデータストリームに継続的に適応可能なモデルを提供することを目的とする。
事前訓練された視覚言語モデル(例えばCLIP)の最近の進歩は、このタスクの強力な基盤を提供する。
本稿では,CLIPベースのCILのためのHiErarchical Representation MAtchiNg(HERMAN)を紹介する。
論文 参考訳(メタデータ) (2025-09-26T17:59:51Z) - Learning and Evaluating Hierarchical Feature Representations [3.770103075126785]
我々は、直交部分空間の階層的構成(Hier-COS)という新しい枠組みを提案する。
Hier-COSは、与えられた分類木の構造と整合した設計により、深い特徴埋め込みをベクトル空間にマッピングすることを学ぶ。
Hier-COSはすべてのデータセットにまたがって最先端の階層的パフォーマンスを実現し,同時に1つのケースを除いてトップ1の精度を上回ります。
論文 参考訳(メタデータ) (2025-03-10T20:59:41Z) - HGCLIP: Exploring Vision-Language Models with Graph Representations for Hierarchical Understanding [18.95003393925676]
異なる階層レベルでカテゴリを分類する場合、従来のユニモーダルアプローチは主にイメージ機能に焦点を当て、複雑なシナリオにおける制限を明らかにする。
ビジョンランゲージモデル(VLM)とクラス階層を統合する最近の研究は、将来性を示しているが、階層関係を完全に活用するには至っていない。
本稿では,CLIPとグラフ表現学習による階層型クラス構造のより深い活用を効果的に組み合わせた新しいフレームワークを提案する。
論文 参考訳(メタデータ) (2023-11-23T15:42:42Z) - Which Features are Learnt by Contrastive Learning? On the Role of
Simplicity Bias in Class Collapse and Feature Suppression [59.97965005675144]
コントラスト学習(CL)は,ラベル管理の有無に関わらず,表現学習の強力な技術として登場した。
CLによって学習される特徴を判定する,理論的に厳密な最初の統合フレームワークを提供する。
本稿では,2つの理論的動機付けされた解として,埋め込み次元の増大とデータ拡張の質の向上について述べる。
論文 参考訳(メタデータ) (2023-05-25T23:37:22Z) - AttriCLIP: A Non-Incremental Learner for Incremental Knowledge Learning [53.32576252950481]
連続学習は、モデルが逐次到着したデータから段階的に知識を学習できるようにすることを目的としている。
本稿では,新しいクラスやタスクの知識を段階的に抽出する,AttriCLIPという非インクリメンタル学習手法を提案する。
論文 参考訳(メタデータ) (2023-05-19T07:39:17Z) - Use All The Labels: A Hierarchical Multi-Label Contrastive Learning
Framework [75.79736930414715]
本稿では,すべての利用可能なラベルを活用でき,クラス間の階層的関係を維持できる階層型多言語表現学習フレームワークを提案する。
比較損失に階層的ペナルティを併用し,その階層的制約を強制する。
論文 参考訳(メタデータ) (2022-04-27T21:41:44Z) - Self-Supervised Class Incremental Learning [51.62542103481908]
既存のクラスインクリメンタルラーニング(CIL)手法は、データラベルに敏感な教師付き分類フレームワークに基づいている。
新しいクラスデータに基づいて更新する場合、それらは破滅的な忘れがちである。
本稿では,SSCILにおける自己指導型表現学習のパフォーマンスを初めて考察する。
論文 参考訳(メタデータ) (2021-11-18T06:58:19Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。