論文の概要: CTTA-T: Continual Test-Time Adaptation for Text Understanding via Teacher-Student with a Domain-aware and Generalized Teacher
- arxiv url: http://arxiv.org/abs/2512.18321v1
- Date: Sat, 20 Dec 2025 11:39:21 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-12-23 18:54:32.290023
- Title: CTTA-T: Continual Test-Time Adaptation for Text Understanding via Teacher-Student with a Domain-aware and Generalized Teacher
- Title(参考訳): CTTA-T:ドメイン認識と一般化した教師によるテキスト理解のための連続的テスト時間適応
- Authors: Tianlun Liu, Zhiliang Tian, Zhen Huang, Xingzhi Zhou, Wanlong Yu, Tianle Liu, Feng Liu, Dongsheng Li,
- Abstract要約: テキスト理解はドメインシフトに悩まされることが多い。
ドメイン適応(DA)は、固定された観察されたテストドメインに適応するように訓練される。
テスト時間適応(TTA)は、トレーニング中にテストドメインにアクセスすることができない。
- 参考スコア(独自算出の注目度): 31.083359760635243
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Text understanding often suffers from domain shifts. To handle testing domains, domain adaptation (DA) is trained to adapt to a fixed and observed testing domain; a more challenging paradigm, test-time adaptation (TTA), cannot access the testing domain during training and online adapts to the testing samples during testing, where the samples are from a fixed domain. We aim to explore a more practical and underexplored scenario, continual test-time adaptation (CTTA) for text understanding, which involves a sequence of testing (unobserved) domains in testing. Current CTTA methods struggle in reducing error accumulation over domains and enhancing generalization to handle unobserved domains: 1) Noise-filtering reduces accumulated errors but discards useful information, and 2) accumulating historical domains enhances generalization, but it is hard to achieve adaptive accumulation. In this paper, we propose a CTTA-T (continual test-time adaptation for text understanding) framework adaptable to evolving target domains: it adopts a teacher-student framework, where the teacher is domain-aware and generalized for evolving domains. To improve teacher predictions, we propose a refine-then-filter based on dropout-driven consistency, which calibrates predictions and removes unreliable guidance. For the adaptation-generalization trade-off, we construct a domain-aware teacher by dynamically accumulating cross-domain semantics via incremental PCA, which continuously tracks domain shifts. Experiments show CTTA-T excels baselines.
- Abstract(参考訳): テキスト理解はドメインシフトに悩まされることが多い。
より困難なパラダイムであるテスト時適応(TTA)は、トレーニング中にテストドメインにアクセスできず、テスト中にテストサンプルにオンラインで適応する。
我々は,テキスト理解のための,より実用的で未探索なシナリオであるCTTA(Continuous Test-time Adaptation)を探求することを目的としている。
現在のCTTA法は、ドメイン上のエラーの蓄積を減らし、未観測領域を扱うための一般化を強化するのに苦労している。
1)ノイズフィルタリングは蓄積した誤りを低減させるが、有用な情報を捨て、
2) 歴史的領域の蓄積は一般化を促進するが, 適応的な蓄積は困難である。
本稿では,対象ドメインの進化に適応するCTTA-T(Continual test-time adapt for text understanding)フレームワークを提案する。
そこで我々は,教師の予測を改善するために,予測を校正し,信頼できない指導を除去する,ドロップアウト駆動一貫性に基づく精巧なフィルタを提案する。
適応一般化トレードオフのために、我々は、ドメインシフトを継続的に追跡するインクリメンタルPCAを通して、ドメイン間のセマンティクスを動的に蓄積することで、ドメイン認識の教師を構築する。
実験ではCTTA-Tがベースラインを抜いた。
関連論文リスト
- Learn Faster and Remember More: Balancing Exploration and Exploitation for Continual Test-time Adaptation [42.08969745752455]
連続テスト時間適応(CTTA)は、推論中にターゲットドメインを継続的に変更するソース事前トレーニングモデルを適用することを目的としている。
本稿では,探索と爆発の適切なバランスを打つ平均教師の枠組みを提案する。
論文 参考訳(メタデータ) (2025-08-18T06:08:56Z) - TestDG: Test-time Domain Generalization for Continual Test-time Adaptation [39.7909410173315]
本稿では,連続的なテスト時間適応(CTTA)について検討する。
我々はCTTAのための新しいオンラインテスト時間領域一般化フレームワークTestDGを提案する。
TestDGは、テスト中の現在のテストドメインと以前のテストドメインの両方に不変な機能を学び、将来のドメインへの効果的な一般化の可能性を改善することを目的としている。
論文 参考訳(メタデータ) (2025-04-07T12:09:18Z) - IT$^3$: Idempotent Test-Time Training [95.78053599609044]
ディープラーニングモデルは、トレーニングデータとテストデータの間の分散シフトのために、現実世界の環境にデプロイする際に苦労することが多い。
Idempotent Test-Time Training (IT$3$) は、現在のテストインスタンスのみを使用して、分散シフトへのオンザフライ適応を可能にする新しいアプローチである。
この結果から,イデオポテンスはドメインやアーキテクチャをまたいで一般化するテスト時間適応の普遍的原理を提供すると考えられる。
論文 参考訳(メタデータ) (2024-10-05T15:39:51Z) - BECoTTA: Input-dependent Online Blending of Experts for Continual Test-time Adaptation [59.1863462632777]
連続テスト時間適応(CTTA)は、学習済みの知識を維持しながら、継続的に見えない領域に効率的に適応するために必要である。
本稿では,CTTAの入力依存かつ効率的なモジュール化フレームワークであるBECoTTAを提案する。
提案手法は, トレーニング可能なパラメータを98%少なく抑えながら, 整合性や漸進性などの複数のCTTAシナリオに優れることを確認した。
論文 参考訳(メタデータ) (2024-02-13T18:37:53Z) - Unsupervised Domain Adaptation for Anatomical Landmark Detection [5.070344284426738]
非教師なし領域適応(UDA)の設定下での解剖学的ランドマーク検出のための新しい枠組みを提案する。
このフレームワークは、自己学習とドメインの敵対的学習を活用して、適応中のドメインギャップに対処する。
脳波および肺のランドマーク検出実験は,領域間隙を広いマージンで低減し,他のUDA法より一貫して優れる手法の有効性を示した。
論文 参考訳(メタデータ) (2023-08-25T10:22:13Z) - DomainAdaptor: A Novel Approach to Test-time Adaptation [33.770970763959355]
DomainAdaptorは、テスト中に未確認のドメインにトレーニング済みのCNNモデルを適用することを目的としている。
AdaMixBNは、正規化層のトレーニングとテスト統計を適応的に融合することで、ドメインシフトに対処する。
実験によると、DomainAdaptorは4つのベンチマークで最先端のメソッドを一貫して上回っている。
論文 参考訳(メタデータ) (2023-08-20T15:37:01Z) - Contrastive Learning and Self-Training for Unsupervised Domain
Adaptation in Semantic Segmentation [71.77083272602525]
UDAはラベル付きソースドメインからラベルなしターゲットドメインへの効率的な知識伝達を試みている。
本稿では,領域にまたがるカテゴリ別センタロイドを適応させるコントラスト学習手法を提案する。
提案手法を自己学習で拡張し,メモリ効率の良い時間アンサンブルを用いて一貫性と信頼性の高い擬似ラベルを生成する。
論文 参考訳(メタデータ) (2021-05-05T11:55:53Z) - Adaptive Risk Minimization: Learning to Adapt to Domain Shift [109.87561509436016]
ほとんどの機械学習アルゴリズムの基本的な前提は、トレーニングとテストデータは、同じ基礎となる分布から引き出されることである。
本研究では,学習データをドメインに構造化し,複数のテスト時間シフトが存在する場合の領域一般化の問題点について考察する。
本稿では、適応リスク最小化(ARM)の枠組みを紹介し、モデルがトレーニング領域に適応することを学ぶことで、効果的な適応のために直接最適化される。
論文 参考訳(メタデータ) (2020-07-06T17:59:30Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。