論文の概要: DualCP: Rehearsal-Free Domain-Incremental Learning via Dual-Level Concept Prototype
- arxiv url: http://arxiv.org/abs/2503.18042v1
- Date: Sun, 23 Mar 2025 12:06:35 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-03-25 14:36:34.273225
- Title: DualCP: Rehearsal-Free Domain-Incremental Learning via Dual-Level Concept Prototype
- Title(参考訳): DualCP:デュアルレベルコンセプトプロトタイプによるリハーサルフリードメインインクリメンタルラーニング
- Authors: Qiang Wang, Yuhang He, SongLin Dong, Xiang Song, Jizhou Han, Haoyu Luo, Yihong Gong,
- Abstract要約: 我々は、新しい知識の学習とRFDILにおける古い知識の保持の対立に対処するため、各クラスにデュアルレベル概念プロトタイプ(DualCP)を設計する。
DualCPを構築するために、各クラスに対して粗粒度と細粒度の両方のプロトタイプを生成するコンセプトプロトタイプジェネレータ(CPG)を提案する。
DomainNet、CDDB、CORe50データセットの実験により、本手法の有効性が示された。
- 参考スコア(独自算出の注目度): 26.323723437207278
- License:
- Abstract: Domain-Incremental Learning (DIL) enables vision models to adapt to changing conditions in real-world environments while maintaining the knowledge acquired from previous domains. Given privacy concerns and training time, Rehearsal-Free DIL (RFDIL) is more practical. Inspired by the incremental cognitive process of the human brain, we design Dual-level Concept Prototypes (DualCP) for each class to address the conflict between learning new knowledge and retaining old knowledge in RFDIL. To construct DualCP, we propose a Concept Prototype Generator (CPG) that generates both coarse-grained and fine-grained prototypes for each class. Additionally, we introduce a Coarse-to-Fine calibrator (C2F) to align image features with DualCP. Finally, we propose a Dual Dot-Regression (DDR) loss function to optimize our C2F module. Extensive experiments on the DomainNet, CDDB, and CORe50 datasets demonstrate the effectiveness of our method.
- Abstract(参考訳): ドメインインクリメンタルラーニング(ドメインインクリメンタルラーニング、Domain-Incremental Learning、DIL)は、視覚モデルにおいて、以前のドメインから取得した知識を維持しながら、実世界の環境の変化に適応することができる。
プライバシー上の懸念とトレーニング時間を考えると、RFDIL(Rehearsal-Free DIL)はより実用的である。
人間の脳の漸進的な認知プロセスにインスパイアされた我々は、新しい知識の学習とRFDILにおける古い知識の保持の間の対立に対処するために、各クラスのためのデュアルレベル概念プロトタイプ(DualCP)を設計する。
DualCPを構築するために、各クラスに対して粗粒度と細粒度の両方のプロトタイプを生成するコンセプトプロトタイプジェネレータ(CPG)を提案する。
さらに、画像特徴をDualCPと整合させるために、C2F(Coarse-to-Fine calibrator)を導入する。
最後に,C2Fモジュールを最適化するためのDDR損失関数を提案する。
DomainNet, CDDB, CORe50データセットの大規模な実験により, 本手法の有効性が示された。
関連論文リスト
- Feature-based One-For-All: A Universal Framework for Heterogeneous Knowledge Distillation [28.722795943076306]
知識蒸留(KD)は、事前訓練された重教師モデルからより軽い学生モデルに知識を移す。
多様なアーキテクチャにまたがる機能蒸留を可能にする機能ベースの1-for-all(FOFA)KDフレームワークを提案する。
まず、学生のフィードバックを取り入れたプロンプトチューニングブロックを設計し、教師が生徒モデルの学習プロセスに適応できるようにする。
論文 参考訳(メタデータ) (2025-01-15T15:56:06Z) - Dual Prototyping with Domain and Class Prototypes for Affective Brain-Computer Interface in Unseen Target Conditions [29.16210966872911]
脳波信号は感情的脳とコンピュータのインターフェースにおいて強力なツールとして登場し、感情認識において重要な役割を担っている。
モデル学習におけるソースデータとターゲットデータの両方に依存するため,脳波認識のための最新のディープトランスファー学習手法が課題に直面している。
本稿では,新しいフレームワーク(PL-DCP)を提案する。
PL-DCPはトレーニング中にソースデータのみを運用する。
論文 参考訳(メタデータ) (2024-11-27T00:56:43Z) - DFDG: Data-Free Dual-Generator Adversarial Distillation for One-Shot Federated Learning [17.34783038347845]
Federated Learning(FL)は、クライアントがグローバルモデルの協調トレーニングに共同で参加する分散機械学習スキームである。
単発FLのための新しいデータフリー二重発生器逆蒸留法(DFDG)を提案する。
DFDGは対角的に実行され、二重生成子訓練と二重モデル蒸留の2つの部分からなる。
論文 参考訳(メタデータ) (2024-09-12T03:44:30Z) - Towards Synchronous Memorizability and Generalizability with Site-Modulated Diffusion Replay for Cross-Site Continual Segmentation [50.70671908078593]
本稿では,同期記憶可能性と一般化可能性(SMG-Learning)に学ぶ新しい学習パラダイムを提案する。
我々は,過去の地点での記憶可能性を確保するために方位勾配アライメントと,目に見えない地点での一般化性を高めるために任意の勾配アライメントを作成する。
実験により,本手法は,他の最先端手法よりも,記憶可能性と一般性の両方を効果的に向上させることが示された。
論文 参考訳(メタデータ) (2024-06-26T03:10:57Z) - Enhancing Compositional Generalization via Compositional Feature Alignment [14.289836081158615]
我々は、既存の実世界の画像データセットから派生したCGベンチマークスイートであるCG-Benchを開発した。
簡単な2段階ファインタニング手法であるコンポジション・フィーチャーアライメント(CFA)を提案する。
CG-Bench for CLIP and DINOv2, two powerful pretrained vision foundation model。
論文 参考訳(メタデータ) (2024-02-05T10:06:24Z) - Direct Distillation between Different Domains [97.39470334253163]
異なるドメイン間の直接蒸留(4Ds)と呼ばれる新しいワンステージ手法を提案する。
まず、Fourier変換に基づいて学習可能なアダプタを設計し、ドメイン固有の知識からドメイン不変知識を分離する。
次に、価値あるドメイン不変知識を学生ネットワークに転送するための融合活性化機構を構築する。
論文 参考訳(メタデータ) (2024-01-12T02:48:51Z) - DI-V2X: Learning Domain-Invariant Representation for
Vehicle-Infrastructure Collaborative 3D Object Detection [78.09431523221458]
DI-V2Xは、新しい蒸留フレームワークを通じてドメイン不変表現を学習することを目的としている。
DI-V2Xは、ドメイン混合インスタンス拡張(DMA)モジュール、プログレッシブドメイン不変蒸留(PDD)モジュール、ドメイン適応融合(DAF)モジュールの3つの必須成分から構成される。
論文 参考訳(メタデータ) (2023-12-25T14:40:46Z) - Motor Imagery Decoding Using Ensemble Curriculum Learning and
Collaborative Training [11.157243900163376]
マルチオブジェクトEEGデータセットは、いくつかの種類のドメインシフトを示す。
これらの領域シフトは、堅牢なクロスオブジェクトの一般化を妨げる。
複数の特徴抽出器を組み込んだ2段階モデルアンサンブルアーキテクチャを提案する。
我々のモデルアンサンブルアプローチはカリキュラム学習と協調学習の力を組み合わせたものであることを実証する。
論文 参考訳(メタデータ) (2022-11-21T13:45:44Z) - Learning to Augment via Implicit Differentiation for Domain
Generalization [107.9666735637355]
ドメイン一般化(DG)は、複数のソースドメインを活用してドメイン一般化可能なモデルを学ぶことで、この問題を克服することを目的としている。
本稿では,AugLearnと呼ばれる新しい拡張型DG手法を提案する。
AugLearnは、PACS、Office-Home、Digits-DGの3つの標準DGベンチマークで効果を示す。
論文 参考訳(メタデータ) (2022-10-25T18:51:51Z) - Source-Free Open Compound Domain Adaptation in Semantic Segmentation [99.82890571842603]
SF-OCDAでは、ターゲットモデルを学習するために、ソース事前訓練されたモデルとターゲットデータのみが利用可能である。
そこで我々は,Cross-Patch Style Swap (CPSS)を提案する。
提案手法は,C-Drivingデータセット上で最先端の結果を生成する。
論文 参考訳(メタデータ) (2021-06-07T08:38:41Z) - Dual Attentive Sequential Learning for Cross-Domain Click-Through Rate
Prediction [76.98616102965023]
クロスドメインレコメンダシステムは、コールドスタートとスパシティの問題に対処するための強力な方法である。
本稿では,二元学習機構に基づくクロスドメインシーケンシャルなレコメンデーション手法を提案する。
論文 参考訳(メタデータ) (2021-06-05T01:21:21Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。