論文の概要: Boosting Open-Domain Continual Learning via Leveraging Intra-domain Category-aware Prototype
- arxiv url: http://arxiv.org/abs/2408.09984v2
- Date: Tue, 12 Nov 2024 08:33:22 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-11-13 13:16:56.600419
- Title: Boosting Open-Domain Continual Learning via Leveraging Intra-domain Category-aware Prototype
- Title(参考訳): ドメイン内カテゴリ認識型を活用したオープンドメイン連続学習の促進
- Authors: Yadong Lu, Shitian Zhao, Boxiang Yun, Dongsheng Jiang, Yin Li, Qingli Li, Yan Wang,
- Abstract要約: 本稿では,プロトタイプをタスクID識別のための分類器として利用することにより,トレーニング不要なタスクID識別手法を提案する。
11の異なるデータセットを用いて行った実験では, それぞれ2.37%, 1.14%, クラス増分とタスク増分を平均的に改善した。
- 参考スコア(独自算出の注目度): 19.73379472116894
- License:
- Abstract: Despite recent progress in enhancing the efficacy of Open-Domain Continual Learning (ODCL) in Vision-Language Models (VLM), failing to (1) correctly identify the Task-ID of a test image and (2) use only the category set corresponding to the Task-ID, while preserving the knowledge related to each domain, cannot address the two primary challenges of ODCL: forgetting old knowledge and maintaining zero-shot capabilities, as well as the confusions caused by category-relatedness between domains. In this paper, we propose a simple yet effective solution: leveraging intra-domain category-aware prototypes for ODCL in CLIP (DPeCLIP), where the prototype is the key to bridging the above two processes. Concretely, we propose a training-free Task-ID discriminator method, by utilizing prototypes as classifiers for identifying Task-IDs. Furthermore, to maintain the knowledge corresponding to each domain, we incorporate intra-domain category-aware prototypes as domain prior prompts into the training process. Extensive experiments conducted on 11 different datasets demonstrate the effectiveness of our approach, achieving 2.37% and 1.14% average improvement in class-incremental and task-incremental settings, respectively.
- Abstract(参考訳): 近年のビジョンランゲージモデル(VLM)におけるオープンドメイン継続学習(ODCL)の有効性向上の進展にもかかわらず,(1)テストイメージのタスクIDを正しく識別できないこと,(2)タスクIDに対応するカテゴリセットのみを使用すること,そして(2)各ドメインに関する知識を維持しながら,ODCLの2つの主要な課題に対処できないこと,(2)古い知識を忘れること,ゼロショット能力を維持すること,およびドメイン間のカテゴリ関連性に起因する混乱について述べる。
本稿では,CLIP(DPeCLIP)におけるODCLのドメイン内カテゴリ認識プロトタイプを活用する,シンプルな,効果的な手法を提案する。
具体的には,プロトタイプをタスクID識別のための分類器として利用することにより,トレーニング不要なタスクID識別手法を提案する。
さらに、各ドメインに対応する知識を維持するために、ドメイン事前プロンプトとしてドメイン内カテゴリ対応プロトタイプをトレーニングプロセスに組み込む。
11種類のデータセットで実施した大規模な実験では, それぞれ2.37%, 1.14%, クラス増分とタスク増分を平均的に改善した。
関連論文リスト
- PiPa++: Towards Unification of Domain Adaptive Semantic Segmentation via Self-supervised Learning [34.786268652516355]
教師なしドメイン適応セグメンテーションは、それらのドメインのラベル付きデータに頼ることなく、ターゲットドメイン上のモデルのセグメンテーション精度を向上させることを目的としている。
ソースドメイン(ラベル付きデータが利用可能な場所)とターゲットドメイン(ラベルなしデータのみが存在する場所)の特徴表現の整合を図る。
論文 参考訳(メタデータ) (2024-07-24T08:53:29Z) - Generalized Few-Shot Continual Learning with Contrastive Mixture of
Adapters [59.82088750033897]
我々は,クラスおよびドメインインクリメンタルな状況を含む汎用FSCL (GFSCL) プロトコルを構築した。
一般的な連続学習手法は、目に見えない領域に一般化能力が乏しいことが判明した。
このようにして、視覚変換器(ViT)に基づくリハーサルフリーフレームワークであるContrastive Mixture of Adapters(CMoA)を提案する。
論文 参考訳(メタデータ) (2023-02-12T15:18:14Z) - Cross-domain Contrastive Learning for Unsupervised Domain Adaptation [108.63914324182984]
教師なしドメイン適応(Unsupervised domain adapt、UDA)は、完全にラベル付けされたソースドメインから異なるラベル付けされていないターゲットドメインに学習した知識を転送することを目的としている。
対照的な自己教師型学習に基づいて、トレーニングとテストセット間のドメインの相違を低減するために、機能を整列させます。
論文 参考訳(メタデータ) (2021-06-10T06:32:30Z) - Effective Label Propagation for Discriminative Semi-Supervised Domain
Adaptation [76.41664929948607]
半教師付き領域適応(SSDA)法は,大規模な画像分類タスクにおいて大きな可能性を示している。
本稿では、ドメイン間およびドメイン内セマンティック情報を効果的に伝達することにより、この問題に対処する新しい効果的な方法を提案する。
ソースコードと事前訓練されたモデルも間もなくリリースされる予定です。
論文 参考訳(メタデータ) (2020-12-04T14:28:19Z) - Class-Incremental Domain Adaptation [56.72064953133832]
私たちは、CIDA(Class-Incremental Domain Adaptation)と呼ばれる実践的ドメイン適応(DA)パラダイムを導入します。
既存のDAメソッドはドメインシフトに取り組むが、新しいターゲットドメインクラスを学ぶのには適さない。
提案手法は,CIDAパラダイムにおけるDAメソッドとCIメソッドの両方と比較して,優れた性能が得られる。
論文 参考訳(メタデータ) (2020-08-04T07:55:03Z) - Self-paced Contrastive Learning with Hybrid Memory for Domain Adaptive
Object Re-ID [55.21702895051287]
ドメイン適応オブジェクトre-IDは、学習した知識をラベル付けされたソースドメインからラベル付けされていないターゲットドメインに転送することを目的としています。
本稿では,ハイブリットメモリを用いた自己評価型コントラスト学習フレームワークを提案する。
提案手法は,オブジェクトre-IDの複数のドメイン適応タスクにおいて,最先端の処理性能を向上する。
論文 参考訳(メタデータ) (2020-06-04T09:12:44Z) - Cross-Domain Imitation Learning with a Dual Structure [20.493193390620352]
対象ドメイン内のエージェントが、報酬関数にアクセスすることなく、ソースドメイン内の専門家のデモンストレーションを観察することにより、対象ドメイン内で適切に機能するポリシーを学習するクロスドメイン模倣学習(CDIL)。
本稿では,模倣学習におけるドメイン差を克服する2重構造学習手法を提案する。
シミュレーションの結果,提案手法は他の既存アルゴリズムよりもCDILの性能が優れており,ドメイン差のない模倣学習とほぼ同等の性能が得られることがわかった。
論文 参考訳(メタデータ) (2020-06-02T09:50:33Z) - Cross-domain Detection via Graph-induced Prototype Alignment [114.8952035552862]
カテゴリレベルのドメインアライメントを求めるグラフ誘発プロトタイプアライメント(GPA)フレームワークを提案する。
さらに,クラス不均衡がドメイン適応に与える影響を軽減するために,クラス重み付きコントラスト損失を設計する。
我々のアプローチは、既存の手法よりも顕著なマージンで優れています。
論文 参考訳(メタデータ) (2020-03-28T17:46:55Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。