論文の概要: Class-aware Domain Knowledge Fusion and Fission for Continual Test-Time Adaptation
- arxiv url: http://arxiv.org/abs/2510.12150v1
- Date: Tue, 14 Oct 2025 05:09:50 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-15 19:02:32.193064
- Title: Class-aware Domain Knowledge Fusion and Fission for Continual Test-Time Adaptation
- Title(参考訳): テスト時間適応のためのクラス認識ドメイン知識融合とフィッション
- Authors: Jiahuan Zhou, Chao Zhu, Zhenyu Cui, Zichen Liu, Xu Zou, Gang Hua,
- Abstract要約: 連続的なテスト時間適応のためのクラス認識ドメイン知識融合とフィッション法を提案する。
ドメイン知識フィッション(KFI)モジュールは、新しいドメイン知識をペア化されたクラス認識ドメインプロンプトプールから適応的に分離するように設計されている。
ドメイン知識融合(KFU)モジュールはさらに、分裂した新しい知識を最小限のコストで既存の知識プールにマージするように設計されている。
- 参考スコア(独自算出の注目度): 50.831196928686104
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Continual Test-Time Adaptation (CTTA) aims to quickly fine-tune the model during the test phase so that it can adapt to multiple unknown downstream domain distributions without pre-acquiring downstream domain data. To this end, existing advanced CTTA methods mainly reduce the catastrophic forgetting of historical knowledge caused by irregular switching of downstream domain data by restoring the initial model or reusing historical models. However, these methods are usually accompanied by serious insufficient learning of new knowledge and interference from potentially harmful historical knowledge, resulting in severe performance degradation. To this end, we propose a class-aware domain Knowledge Fusion and Fission method for continual test-time adaptation, called KFF, which adaptively expands and merges class-aware domain knowledge in old and new domains according to the test-time data from different domains, where discriminative historical knowledge can be dynamically accumulated. Specifically, considering the huge domain gap within streaming data, a domain Knowledge FIssion (KFI) module is designed to adaptively separate new domain knowledge from a paired class-aware domain prompt pool, alleviating the impact of negative knowledge brought by old domains that are distinct from the current domain. Besides, to avoid the cumulative computation and storage overheads from continuously fissioning new knowledge, a domain Knowledge FUsion (KFU) module is further designed to merge the fissioned new knowledge into the existing knowledge pool with minimal cost, where a greedy knowledge dynamic merging strategy is designed to improve the compatibility of new and old knowledge while keeping the computational efficiency. Extensive experiments on the ImageNet-C dataset verify the effectiveness of our proposed method against other methods.
- Abstract(参考訳): 連続的テスト時間適応(CTTA)は、テストフェーズ中にモデルを高速に微調整することを目的としており、ダウンストリームドメインデータを事前に取得することなく、複数の未知のダウンストリームドメイン分布に適応できるようにする。
この目的のために,既存のCTTA法では,初期モデルを復元したり,過去のモデルを再利用したりすることで,下流領域データの不規則な切り換えによる歴史的知識の破滅的な忘れを主に減らしている。
しかし、これらの手法は通常、新しい知識の習得が不十分で、潜在的に有害な歴史的知識からの干渉が伴い、パフォーマンスが著しく低下する。
そこで本研究では,異なるドメインからのテスト時間データに基づいて,クラス認識ドメインの知識を適応的に拡張し,マージするKFFという,連続的なテスト時間適応のためのクラス認識ドメイン知識融合・フィッション手法を提案する。
具体的には、ストリーミングデータ内の大きなドメインギャップを考慮すると、KFI(Domain Knowledge FIssion)モジュールは、新しいドメイン知識をペア化されたクラス対応ドメインプロンプトプールから適応的に分離し、現在のドメインとは異なる古いドメインがもたらす負の知識の影響を軽減するように設計されている。
さらに、新たな知識を連続的に分裂させるのを避けるため、ドメイン知識融合(KFU)モジュールは、新しい知識を最小のコストで既存の知識プールにマージするようにさらに設計されており、そこでは、計算効率を維持しながら、新しい知識と古い知識の互換性を改善するために、欲求的な知識動的マージ戦略が設計されている。
ImageNet-Cデータセットの大規模な実験により,提案手法の有効性が検証された。
関連論文リスト
- Learn Faster and Remember More: Balancing Exploration and Exploitation for Continual Test-time Adaptation [42.08969745752455]
連続テスト時間適応(CTTA)は、推論中にターゲットドメインを継続的に変更するソース事前トレーニングモデルを適用することを目的としている。
本稿では,探索と爆発の適切なバランスを打つ平均教師の枠組みを提案する。
論文 参考訳(メタデータ) (2025-08-18T06:08:56Z) - Towards Federated Domain Unlearning: Verification Methodologies and Challenges [34.9987941096371]
フェデレート・ドメイン・アンラーニングに関する最初の総合的な実証的研究について紹介する。
その結果,非学習がモデルの深い層に不均等に影響を及ぼすことが判明した。
フェデレート・ドメイン・アンラーニングに適した新しい評価手法を提案する。
論文 参考訳(メタデータ) (2024-06-05T09:05:55Z) - Adapting to Distribution Shift by Visual Domain Prompt Generation [34.19066857066073]
いくつかのラベルのないデータを使って、テスト時にモデルを適応し、分散シフトに対処する。
ソースドメインから移行可能な知識を学ぶための知識銀行を構築します。
提案手法は,WILDSやDomainNetを含む5つの大規模ベンチマークにおいて,従来よりも優れている。
論文 参考訳(メタデータ) (2024-05-05T02:44:04Z) - Activate and Reject: Towards Safe Domain Generalization under Category
Shift [71.95548187205736]
カテゴリーシフト(DGCS)下における領域一般化の実践的問題について検討する。
未知のクラスサンプルを同時に検出し、ターゲットドメイン内の既知のクラスサンプルを分類することを目的としている。
従来のDGと比較すると,1)ソースクラスのみを用いたトレーニングにおいて,未知の概念を学習する方法,2)ソーストレーニングされたモデルを未知の環境に適応する方法,の2つの新しい課題に直面している。
論文 参考訳(メタデータ) (2023-10-07T07:53:12Z) - Decorate the Newcomers: Visual Domain Prompt for Continual Test Time
Adaptation [14.473807945791132]
Continual Test-Time Adaptation (CTTA) は、ソースデータにアクセスすることなく、ラベルなしのターゲットドメインを継続的に変更することを目的としている。
そこで本論文では,NLPにおける素早い学習によって動機づけられた画像レベルの視覚領域プロンプトを,ソースモデルパラメータを凍結させながら学習することを提案する。
論文 参考訳(メタデータ) (2022-12-08T08:56:02Z) - LLEDA -- Lifelong Self-Supervised Domain Adaptation [9.71137838903781]
人間や動物は、これまで獲得した知識を失うことなく、生涯にわたって新しい情報を継続的に学習する能力を持っている。
新しい情報は古い知識と矛盾し、破滅的な忘れ物となる。
提案したLifelong Self-Supervised Domain Adaptation (LLEDA)フレームワークは、CLS理論からインスピレーションを得て、2つのネットワーク間の相互作用を模倣する。
LLEDAの潜時リプレイ技術は、過去のメモリ潜時表現を再活性化・再生することでこれらの2つのネットワーク間の通信を容易にし、学習した情報に干渉することなく長期の一般化と保持を安定化させる。
論文 参考訳(メタデータ) (2022-11-12T10:12:17Z) - Unsupervised Domain Adaptation via Style-Aware Self-intermediate Domain [52.783709712318405]
非教師なしドメイン適応(UDA)は、ラベル豊富なソースドメインから関連するがラベルのないターゲットドメインに知識を伝達する、かなりの注目を集めている。
本研究では,大規模なドメインギャップと伝達知識を橋渡しし,クラス非ネイティブ情報の損失を軽減するために,SAFF(style-aware feature fusion)法を提案する。
論文 参考訳(メタデータ) (2022-09-05T10:06:03Z) - On Generalizing Beyond Domains in Cross-Domain Continual Learning [91.56748415975683]
ディープニューラルネットワークは、新しいタスクを学んだ後、これまで学んだ知識の破滅的な忘れ込みに悩まされることが多い。
提案手法は、ドメインシフト中の新しいタスクを精度良く学習することで、DomainNetやOfficeHomeといった挑戦的なデータセットで最大10%向上する。
論文 参考訳(メタデータ) (2022-03-08T09:57:48Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。