論文の概要: Stabilizing Open-Set Test-Time Adaptation via Primary-Auxiliary Filtering and Knowledge-Integrated Prediction
- arxiv url: http://arxiv.org/abs/2508.18751v1
- Date: Tue, 26 Aug 2025 07:27:25 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-08-27 17:42:38.726548
- Title: Stabilizing Open-Set Test-Time Adaptation via Primary-Auxiliary Filtering and Knowledge-Integrated Prediction
- Title(参考訳): 一次補助フィルタと知識統合予測によるオープンセットテスト時間適応の安定化
- Authors: Byung-Joon Lee, Jin-Seop Lee, Jee-Hyong Lee,
- Abstract要約: テスト時間適応(TTA)は、推論中にデータをテストするモデルを適用することで、その課題に対処する。
本稿では補助フィルタを用いて一次フィルタでフィルタされたデータを検証する一次補助フィルタ(PAF)を提案する。
さまざまなクローズドセットおよびオープンセットデータセットにまたがるアプローチを検証する。
- 参考スコア(独自算出の注目度): 22.1791117523576
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Deep neural networks demonstrate strong performance under aligned training-test distributions. However, real-world test data often exhibit domain shifts. Test-Time Adaptation (TTA) addresses this challenge by adapting the model to test data during inference. While most TTA studies assume that the training and test data share the same class set (closed-set TTA), real-world scenarios often involve open-set data (open-set TTA), which can degrade closed-set accuracy. A recent study showed that identifying open-set data during adaptation and maximizing its entropy is an effective solution. However, the previous method relies on the source model for filtering, resulting in suboptimal filtering accuracy on domain-shifted test data. In contrast, we found that the adapting model, which learns domain knowledge from noisy test streams, tends to be unstable and leads to error accumulation when used for filtering. To address this problem, we propose Primary-Auxiliary Filtering (PAF), which employs an auxiliary filter to validate data filtered by the primary filter. Furthermore, we propose Knowledge-Integrated Prediction (KIP), which calibrates the outputs of the adapting model, EMA model, and source model to integrate their complementary knowledge for OSTTA. We validate our approach across diverse closed-set and open-set datasets. Our method enhances both closed-set accuracy and open-set discrimination over existing methods. The code is available at https://github.com/powerpowe/PAF-KIP-OSTTA .
- Abstract(参考訳): ディープニューラルネットワークは、整列したトレーニング-テスト分布下での強いパフォーマンスを示す。
しかし、実世界のテストデータはドメインシフトを示すことが多い。
テスト時間適応(TTA)は、推論中にデータをテストするモデルを適用することで、この課題に対処する。
多くのTTA研究では、トレーニングとテストデータが同じクラスセット(クローズドセットのTTA)を共有していると仮定しているが、実世界のシナリオは、クローズドセットの精度を低下させることのできるオープンセットデータ(オープンセットのTTA)を含むことが多い。
最近の研究では、適応中のオープンセットデータの同定とエントロピーの最大化が有効な解であることが示された。
しかし, 従来の手法はソースモデルによるフィルタリングに依存しており, ドメインシフトテストデータに対する最適下フィルタリング精度が向上する。
対照的に、ノイズの多いテストストリームからドメイン知識を学習する適応モデルは不安定であり、フィルタリングに使用するとエラーの蓄積につながる傾向がある。
この問題に対処するために,予備フィルタを用いて一次フィルタでフィルタリングされたデータの検証を行う一次補助フィルタ (Parriary-Auxiliary Filtering, PAF) を提案する。
さらに、OSTTAの補完的知識を統合するために、適応モデル、EMAモデル、ソースモデルの出力を校正する知識統合予測(KIP)を提案する。
さまざまなクローズドセットおよびオープンセットデータセットにまたがるアプローチを検証する。
提案手法は,既存の手法よりもクローズドセットの精度とオープンセットの識別を両立させる。
コードはhttps://github.com/powerpowe/PAF-KIP-OSTTAで公開されている。
関連論文リスト
- Backpropagation-Free Test-Time Adaptation via Probabilistic Gaussian Alignment [16.352863226512984]
テスト時間適応(TTA)は、推論中にラベルのないテストデータを活用することにより、分散シフト下でのゼロショットロバスト性を高める。
ほとんどのメソッドは、スケーラビリティを制限し、リアルタイムデプロイメントを妨げるバックプロパゲーションや反復最適化に依存しています。
本稿では,Advanced Distribution-AwareとBack propagation-free Test-time Adapting法であるADAPTを提案する。
論文 参考訳(メタデータ) (2025-08-21T13:42:49Z) - Distribution Alignment for Fully Test-Time Adaptation with Dynamic Online Data Streams [19.921480334048756]
TTA(Test-Time Adaptation)は、テストデータストリームの適応と推論を可能にする。
本稿では,TTAにおける新しい配電アライメント損失を提案する。
我々は、非i.d.シナリオにおける既存の手法を超越し、理想的なi.d.仮定の下で競争性能を維持する。
論文 参考訳(メタデータ) (2024-07-16T19:33:23Z) - Unified Entropy Optimization for Open-Set Test-Time Adaptation [40.111891407629]
テスト時間適応(TTA)は、ラベル付きソースドメインで事前訓練されたモデルをラベルなしターゲットドメインに適応することを目的としている。
多くの最先端のクローズドセットTTAメソッドは、オープンセットのシナリオに適用した場合、性能が良くない。
統一エントロピー最適化(UniEnt)と呼ばれるシンプルだが効果的なフレームワークを提案する。
論文 参考訳(メタデータ) (2024-04-09T07:08:00Z) - Diverse Data Augmentation with Diffusions for Effective Test-time Prompt
Tuning [73.75282761503581]
DiffTPTを提案する。DiffTPTは,事前学習した拡散モデルを用いて,多種多様な情報データを生成する。
DiffTPTがゼロショット精度を平均5.13%向上することを示す。
論文 参考訳(メタデータ) (2023-08-11T09:36:31Z) - TeST: Test-time Self-Training under Distribution Shift [99.68465267994783]
Test-Time Self-Training (TeST)は、あるソースデータとテスト時の新しいデータ分散に基づいてトレーニングされたモデルを入力する技術である。
また,TeSTを用いたモデルでは,ベースラインテスト時間適応アルゴリズムよりも大幅に改善されていることがわかった。
論文 参考訳(メタデータ) (2022-09-23T07:47:33Z) - Back to the Source: Diffusion-Driven Test-Time Adaptation [77.4229736436935]
テスト時間適応はテスト入力を利用し、シフトしたターゲットデータ上でテストした場合、ソースデータに基づいてトレーニングされたモデルの精度を向上させる。
代わりに、生成拡散モデルを用いて、すべてのテスト入力をソース領域に向けて投影することで、ターゲットデータを更新する。
論文 参考訳(メタデータ) (2022-07-07T17:14:10Z) - CAFA: Class-Aware Feature Alignment for Test-Time Adaptation [50.26963784271912]
テスト時間適応(TTA)は、テスト時にラベルのないデータにモデルを適応させることによって、この問題に対処することを目的としている。
本稿では,クラス認識特徴アライメント(CAFA, Class-Aware Feature Alignment)と呼ばれる単純な機能アライメント損失を提案する。
論文 参考訳(メタデータ) (2022-06-01T03:02:07Z) - Listen, Adapt, Better WER: Source-free Single-utterance Test-time
Adaptation for Automatic Speech Recognition [65.84978547406753]
Test-time Adaptationは、ソースドメインでトレーニングされたモデルに適応して、テストサンプルの予測を改善することを目的としている。
単一発話テスト時間適応 (SUTA) は音声領域における最初のTTA研究である。
論文 参考訳(メタデータ) (2022-03-27T06:38:39Z) - Do We Really Need to Access the Source Data? Source Hypothesis Transfer
for Unsupervised Domain Adaptation [102.67010690592011]
Unsupervised adaptUDA (UDA) は、ラベル付きソースデータセットから学んだ知識を活用して、新しいラベル付きドメインで同様のタスクを解決することを目的としている。
従来のUDAメソッドは、モデルに適応するためには、通常、ソースデータにアクセスする必要がある。
この作業は、訓練済みのソースモデルのみが利用できる実践的な環境に取り組み、ソースデータなしでそのようなモデルを効果的に活用してUDA問題を解決する方法に取り組みます。
論文 参考訳(メタデータ) (2020-02-20T03:13:58Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。