論文の概要: Effortless Active Labeling for Long-Term Test-Time Adaptation
- arxiv url: http://arxiv.org/abs/2503.14564v1
- Date: Tue, 18 Mar 2025 07:49:27 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-03-20 15:26:10.138420
- Title: Effortless Active Labeling for Long-Term Test-Time Adaptation
- Title(参考訳): 長期試験時間適応のための能動ラベリング
- Authors: Guowei Wang, Changxing Ding,
- Abstract要約: 長期的なテストタイムの適応は、エラーの蓄積による難しい作業である。
最近のアプローチでは、各バッチに少数のサンプルを積極的にラベル付けすることでこの問題に対処している。
本稿では,各バッチにおけるアノテーションに対して,最大1つのサンプルが選択されるように,無駄なアクティブラベリングを実現する方法について検討する。
- 参考スコア(独自算出の注目度): 18.02130603595324
- License:
- Abstract: Long-term test-time adaptation (TTA) is a challenging task due to error accumulation. Recent approaches tackle this issue by actively labeling a small proportion of samples in each batch, yet the annotation burden quickly grows as the batch number increases. In this paper, we investigate how to achieve effortless active labeling so that a maximum of one sample is selected for annotation in each batch. First, we annotate the most valuable sample in each batch based on the single-step optimization perspective in the TTA context. In this scenario, the samples that border between the source- and target-domain data distributions are considered the most feasible for the model to learn in one iteration. Then, we introduce an efficient strategy to identify these samples using feature perturbation. Second, we discover that the gradient magnitudes produced by the annotated and unannotated samples have significant variations. Therefore, we propose balancing their impact on model optimization using two dynamic weights. Extensive experiments on the popular ImageNet-C, -R, -K, -A and PACS databases demonstrate that our approach consistently outperforms state-of-the-art methods with significantly lower annotation costs.
- Abstract(参考訳): 長期テスト時間適応(TTA)は、エラーの蓄積による課題である。
最近のアプローチでは、各バッチに少数のサンプルを積極的にラベル付けすることでこの問題に対処しているが、バッチ数が増加するにつれて、アノテーションの負担は急速に増大する。
本稿では,各バッチにおけるアノテーションに対して,最大1つのサンプルが選択されるように,無駄なアクティブラベリングを実現する方法について検討する。
まず、TTAコンテキストにおける単一ステップ最適化の観点に基づいて、各バッチでもっとも価値のあるサンプルを注釈付けする。
このシナリオでは、ソースドメインとターゲットドメインのデータ分散の境界にあるサンプルは、モデルが1回のイテレーションで学習する上で最も可能と考えられる。
次に,特徴摂動を用いてこれらのサンプルを同定する効率的な手法を提案する。
第2に, 注釈付試料および注釈付試料による勾配等級は, 有意な変動が認められた。
そこで本研究では,2つの動的重みを用いたモデル最適化への影響のバランスをとることを提案する。
一般的なImageNet-C, -R, -K, -A, PACSデータベースに対する大規模な実験により,我々のアプローチは,アノテーションコストを大幅に低減した最先端の手法よりも一貫して優れていることが示された。
関連論文リスト
- SPARNet: Continual Test-Time Adaptation via Sample Partitioning Strategy and Anti-Forgetting Regularization [16.5927083825258]
TTA(Test-time Adaptation)は、モデルがデプロイ後にドメインの変更に遭遇した場合のパフォーマンスを改善することを目的としている。
単純な自己学習法で作られたノイズの多い擬似ラベルは、誤りの蓄積と破滅的な忘れを生じさせる可能性がある。
本稿では,サンプル分割戦略とアンチフォーゲッティング正規化という2つの部分からなる新しいフレームワークSPARNetを提案する。
論文 参考訳(メタデータ) (2025-01-01T12:19:17Z) - Decoupled Prototype Learning for Reliable Test-Time Adaptation [50.779896759106784]
テスト時間適応(TTA)は、推論中にトレーニング済みのソースモデルをターゲットドメインに継続的に適応させるタスクである。
1つの一般的なアプローチは、推定擬似ラベルによるクロスエントロピー損失を伴う微調整モデルである。
本研究は, 各試料の分類誤差を最小化することで, クロスエントロピー損失の脆弱性がラベルノイズを引き起こすことを明らかにした。
本稿では,プロトタイプ中心の損失計算を特徴とする新しいDPL法を提案する。
論文 参考訳(メタデータ) (2024-01-15T03:33:39Z) - ActiveDC: Distribution Calibration for Active Finetuning [36.64444238742072]
本研究では,アクティブ微調整タスクのためのActiveDCと呼ばれる新しい手法を提案する。
我々は,無ラベルプールにおける暗黙のカテゴリ情報を利用して,選択したサンプルの分布を校正する。
その結果,ActiveDCは画像分類タスクのベースライン性能を一貫して上回ることがわかった。
論文 参考訳(メタデータ) (2023-11-13T14:35:18Z) - Improving Entropy-Based Test-Time Adaptation from a Clustering View [15.157208389691238]
エントロピーベースのTTAについて,新たなクラスタリングの視点を導入する。
本稿では,ロバストなラベル割り当て,類似性保存制約,サンプル選択,勾配蓄積などを提案する。
実験結果から,本手法は様々なデータセットに対して一貫した改善が可能であることが示された。
論文 参考訳(メタデータ) (2023-10-31T10:10:48Z) - IDEAL: Influence-Driven Selective Annotations Empower In-Context
Learners in Large Language Models [66.32043210237768]
本稿では,影響駆動型選択的アノテーション手法を提案する。
アノテーションのコストを最小限に抑えつつ、コンテキスト内サンプルの品質を向上させることを目的としている。
様々なベンチマークで提案手法の優位性を確認する実験を行った。
論文 参考訳(メタデータ) (2023-10-16T22:53:54Z) - Efficient Test-Time Model Adaptation without Forgetting [60.36499845014649]
テストタイム適応は、トレーニングとテストデータの間の潜在的な分散シフトに取り組むことを目指している。
信頼性および非冗長なサンプルを同定するためのアクティブなサンプル選択基準を提案する。
また、重要なモデルパラメータを劇的な変化から制約するFisher regularizerを導入します。
論文 参考訳(メタデータ) (2022-04-06T06:39:40Z) - A Lagrangian Duality Approach to Active Learning [119.36233726867992]
トレーニングデータのサブセットのみをラベル付けするバッチアクティブな学習問題を考察する。
制約付き最適化を用いて学習問題を定式化し、各制約はラベル付きサンプルにモデルの性能を拘束する。
数値実験により,提案手法は最先端の能動学習法と同等かそれ以上に機能することを示した。
論文 参考訳(メタデータ) (2022-02-08T19:18:49Z) - Jo-SRC: A Contrastive Approach for Combating Noisy Labels [58.867237220886885]
Jo-SRC (Joint Sample Selection and Model Regularization based on Consistency) というノイズロバスト手法を提案する。
具体的には、対照的な学習方法でネットワークをトレーニングする。
各サンプルの2つの異なるビューからの予測は、クリーンまたは分布不足の「可能性」を推定するために使用されます。
論文 参考訳(メタデータ) (2021-03-24T07:26:07Z) - Multi-Scale Positive Sample Refinement for Few-Shot Object Detection [61.60255654558682]
Few-shot Object Detection (FSOD) は、ディテクターがトレーニングインスタンスをほとんど持たない未確認のクラスに適応するのに役立つ。
FSODにおけるオブジェクトスケールを拡張化するためのMPSR(Multi-scale Positive Sample Refinement)アプローチを提案する。
MPSRは、オブジェクトピラミッドとして多スケールの正のサンプルを生成し、様々なスケールで予測を洗練させる。
論文 参考訳(メタデータ) (2020-07-18T09:48:29Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。