論文の概要: DCFS: Continual Test-Time Adaptation via Dual Consistency of Feature and Sample
- arxiv url: http://arxiv.org/abs/2508.20516v1
- Date: Thu, 28 Aug 2025 07:57:54 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-08-29 18:12:02.16995
- Title: DCFS: Continual Test-Time Adaptation via Dual Consistency of Feature and Sample
- Title(参考訳): DCFS: 機能とサンプルの二重一貫性による連続的なテスト時間適応
- Authors: Wenting Yin, Han Sun, Xinru Meng, Ningzhong Liu, Huiyu Zhou,
- Abstract要約: 連続的なテスト時間適応は、トレーニング済みのモデルを、ソースデータにアクセスすることなく、ターゲットドメインデータのストリームに継続的に適応することを目的としている。
デュアルパス特徴整合性と信頼性を考慮したサンプル学習を導入した新しいCTTAフレームワークであるDCFSを提案する。
- 参考スコア(独自算出の注目度): 22.84826831249534
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Continual test-time adaptation aims to continuously adapt a pre-trained model to a stream of target domain data without accessing source data. Without access to source domain data, the model focuses solely on the feature characteristics of the target data. Relying exclusively on these features can lead to confusion and introduce learning biases. Currently, many existing methods generate pseudo-labels via model predictions. However, the quality of pseudo-labels cannot be guaranteed and the problem of error accumulation must be solved. To address these challenges, we propose DCFS, a novel CTTA framework that introduces dual-path feature consistency and confidence-aware sample learning. This framework disentangles the whole feature representation of the target data into semantic-related feature and domain-related feature using dual classifiers to learn distinct feature representations. By maintaining consistency between the sub-features and the whole feature, the model can comprehensively capture data features from multiple perspectives. Additionally, to ensure that the whole feature information of the target domain samples is not overlooked, we set a adaptive threshold and calculate a confidence score for each sample to carry out loss weighted self-supervised learning, effectively reducing the noise of pseudo-labels and alleviating the problem of error accumulation. The efficacy of our proposed method is validated through extensive experimentation across various datasets, including CIFAR10-C, CIFAR100-C, and ImageNet-C, demonstrating consistent performance in continual test-time adaptation scenarios.
- Abstract(参考訳): 連続的なテスト時間適応は、トレーニング済みのモデルを、ソースデータにアクセスすることなく、ターゲットドメインデータのストリームに継続的に適応することを目的としている。
ソースドメインデータにアクセスすることなく、モデルはターゲットデータの特徴にのみ焦点をあてる。
これらの機能にのみ依存することは、混乱を招き、学習バイアスをもたらす可能性がある。
現在、多くの既存手法がモデル予測を通じて擬似ラベルを生成する。
しかし、擬似ラベルの品質は保証できず、誤り蓄積の問題も解決しなければならない。
これらの課題に対処するために、デュアルパス特徴整合性と信頼性を考慮したサンプル学習を導入した新しいCTTAフレームワークであるDCFSを提案する。
このフレームワークは、対象データの全ての特徴表現を、二重分類器を用いて意味関連特徴とドメイン関連特徴に切り離して、異なる特徴表現を学習する。
サブ機能と機能全体の一貫性を維持することで、モデルは複数の視点からデータ特徴を包括的にキャプチャすることができる。
さらに,対象のドメインサンプルの特徴情報のすべてを見落としないように,適応しきい値を設定し,各サンプルに対する信頼性スコアを算出し,損失重み付き自己教師学習を行い,擬似ラベルのノイズを効果的に低減し,誤り蓄積の問題を緩和する。
提案手法の有効性は, CIFAR10-C, CIFAR100-C, ImageNet-Cなど, 様々なデータセットを対象とした広範な実験により検証され, 連続的なテスト時間適応シナリオにおける一貫した性能を示す。
関連論文リスト
- Stochastic Encodings for Active Feature Acquisition [100.47043816019888]
Active Feature Acquisitionは、インスタンスワイドでシーケンシャルな意思決定問題である。
目的は、テストインスタンスごとに独立して、現在の観測に基づいて計測する機能を動的に選択することである。
一般的なアプローチは強化学習(Reinforcement Learning)であり、トレーニングの困難を経験する。
我々は、教師付きで訓練された潜在変数モデルを導入し、潜在空間における観測不能な実現の可能性の多くにまたがる特徴を推論することで獲得する。
論文 参考訳(メタデータ) (2025-08-03T23:48:46Z) - CHASe: Client Heterogeneity-Aware Data Selection for Effective Federated Active Learning [22.38403602956309]
フェデレートアクティブラーニング(FAL)に特化して設計されたCHASe (Client Heterogeneity-Aware Data Selection)を提案する。
CHASeは、トレーニング中の意思決定の境界を揺らぎながら、高い疫学変化(EV)を持つラベルのないサンプルを特定することに重点を置いている。
実験により、CHASeは、さまざまなデータセット、モデル複雑度、異種フェデレーション設定にまたがって検証される、有効性と効率の観点から、確立されたさまざまなベースラインを超えることが示されている。
論文 参考訳(メタデータ) (2025-04-24T11:28:00Z) - Propensity-driven Uncertainty Learning for Sample Exploration in Source-Free Active Domain Adaptation [19.620523416385346]
ソースフリーアクティブドメイン適応(SFADA)は、ソースデータにアクセスせずに、トレーニング済みのモデルを新しいドメインに適応するという課題に対処する。
このシナリオは、データプライバシ、ストレージ制限、ラベル付けコストが重要な懸念事項である現実世界のアプリケーションに特に関係している。
Propensity-driven Uncertainty Learning (ProULearn) フレームワークを提案する。
論文 参考訳(メタデータ) (2025-01-23T10:05:25Z) - Consistency Regularization for Generalizable Source-free Domain
Adaptation [62.654883736925456]
ソースフリードメイン適応(source-free domain adapt, SFDA)は、ソースデータセットにアクセスすることなく、十分にトレーニングされたソースモデルを未学習のターゲットドメインに適応することを目的としている。
既存のSFDAメソッドは、ターゲットのトレーニングセット上で適用されたモデルを評価し、目に見えないが同一の分散テストセットからデータを無視する。
より一般化可能なSFDA法を開発するための整合正則化フレームワークを提案する。
論文 参考訳(メタデータ) (2023-08-03T07:45:53Z) - Divide and Contrast: Source-free Domain Adaptation via Adaptive
Contrastive Learning [122.62311703151215]
Divide and Contrast (DaC) は、それぞれの制限を回避しつつ、両方の世界の善良な端を接続することを目的としている。
DaCは、ターゲットデータをソースライクなサンプルとターゲット固有なサンプルに分割する。
さらに、ソースライクなドメインと、メモリバンクベースの最大平均離散性(MMD)損失を用いて、ターゲット固有のサンプルとを整合させて、分散ミスマッチを低減する。
論文 参考訳(メタデータ) (2022-11-12T09:21:49Z) - Feature Diversity Learning with Sample Dropout for Unsupervised Domain
Adaptive Person Re-identification [0.0]
本稿では,ノイズの多い擬似ラベルを限定することで,より優れた一般化能力を持つ特徴表現を学習する手法を提案する。
我々は,古典的な相互学習アーキテクチャの下で,FDL(Feature Diversity Learning)と呼ばれる新しい手法を提案する。
実験の結果,提案するFDL-SDは,複数のベンチマークデータセット上での最先端性能を実現することがわかった。
論文 参考訳(メタデータ) (2022-01-25T10:10:48Z) - ACDC: Online Unsupervised Cross-Domain Adaptation [15.72925931271688]
本稿では,非教師付きドメイン適応フレームワークであるACDCを提案する。
ACDCは3つのモジュールを単一のモデルにカプセル化している。特徴を抽出する自動エンコーダ、ドメイン変換を実行する対向モジュール、ソースストリームを学習してターゲットストリームを予測する推定器である。
実験の結果, 基準法よりも目標精度が向上し, 場合によっては10%以上の増加が見られた。
論文 参考訳(メタデータ) (2021-10-04T11:08:32Z) - Causal Feature Selection for Algorithmic Fairness [61.767399505764736]
データ管理の統合コンポーネントにおける公平性について検討する。
本稿では,データセットの公平性を保証する特徴のサブコレクションを同定する手法を提案する。
論文 参考訳(メタデータ) (2020-06-10T20:20:10Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。