論文の概要: Synchronizing Task Behavior: Aligning Multiple Tasks during Test-Time Training
- arxiv url: http://arxiv.org/abs/2507.07778v1
- Date: Thu, 10 Jul 2025 13:58:32 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-07-11 16:40:15.430093
- Title: Synchronizing Task Behavior: Aligning Multiple Tasks during Test-Time Training
- Title(参考訳): タスクの同期:テスト時間トレーニング中の複数のタスクの調整
- Authors: Wooseong Jeong, Jegyeong Cho, Youngho Yoon, Kuk-Jin Yoon,
- Abstract要約: ニューラルネットワークを未確認のターゲットドメインに一般化することは、現実世界のデプロイメントにおいて大きな課題である。
テストタイムトレーニング(TTT)は、ソースとターゲット間の分散シフトに起因するドメインギャップを低減するために、補助的な自己監督タスクを使用することで、この問題に対処する。
テスト時間トレーニングのための同期タスク(S4T)と呼ばれる新しいTT手法を提案し,複数のタスクの同時処理を実現する。
- 参考スコア(独自算出の注目度): 39.2014649652258
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Generalizing neural networks to unseen target domains is a significant challenge in real-world deployments. Test-time training (TTT) addresses this by using an auxiliary self-supervised task to reduce the domain gap caused by distribution shifts between the source and target. However, we find that when models are required to perform multiple tasks under domain shifts, conventional TTT methods suffer from unsynchronized task behavior, where the adaptation steps needed for optimal performance in one task may not align with the requirements of other tasks. To address this, we propose a novel TTT approach called Synchronizing Tasks for Test-time Training (S4T), which enables the concurrent handling of multiple tasks. The core idea behind S4T is that predicting task relations across domain shifts is key to synchronizing tasks during test time. To validate our approach, we apply S4T to conventional multi-task benchmarks, integrating it with traditional TTT protocols. Our empirical results show that S4T outperforms state-of-the-art TTT methods across various benchmarks.
- Abstract(参考訳): ニューラルネットワークを未確認のターゲットドメインに一般化することは、現実世界のデプロイメントにおいて大きな課題である。
テストタイムトレーニング(TTT)は、ソースとターゲット間の分散シフトに起因するドメインギャップを低減するために、補助的な自己監督タスクを使用することで、この問題に対処する。
しかし、ドメインシフトの下で複数のタスクを実行するためにモデルを必要とする場合、従来のTTTメソッドは、あるタスクにおける最適なパフォーマンスに必要な適応ステップが他のタスクの要求と一致しないような、同期しないタスクの振る舞いに悩まされる。
そこで本研究では,テスト時間トレーニングのための同期タスク (S4T) と呼ばれる,複数のタスクの同時処理を可能にする新しいTTT手法を提案する。
S4Tの背後にある中核的な考え方は、テスト期間中にタスクを同期させる鍵となる、ドメインシフト間のタスク関係の予測である。
提案手法を検証するため,従来のマルチタスク・ベンチマークにS4Tを適用し,従来のTTプロトコルと統合する。
実験の結果、S4Tは様々なベンチマークで最先端のTTT法より優れていることがわかった。
関連論文リスト
- MT2ST: Adaptive Multi-Task to Single-Task Learning [6.185573921868495]
マルチタスク学習(MTL)における一般化とシングルタスク学習(STL)における精度のトレードオフについて,MT2ST(Multi-Task to Single-Task)フレームワークを導入して検討する。
MT2STは、マルチモーダルタスクにおけるトレーニング効率と精度を高めるために設計されており、効率的な機械学習の実践的応用としての価値を示している。
論文 参考訳(メタデータ) (2024-06-26T03:12:07Z) - ClusT3: Information Invariant Test-Time Training [19.461441044484427]
これらの脆弱性を軽減するため、TTT(Test-time Training)法が開発されている。
マルチスケール特徴写像と離散潜在表現の相互情報に基づく新しい非教師付きTTT手法を提案する。
実験結果から, 様々なテスト時間適応ベンチマークにおいて, 競争力のある分類性能が示された。
論文 参考訳(メタデータ) (2023-10-18T21:43:37Z) - Improved Test-Time Adaptation for Domain Generalization [48.239665441875374]
テストタイムトレーニング(TTT)は、学習したモデルにテストデータを適用する。
この作業は2つの主な要因に対処する: テストフェーズ中にアップデートする信頼性のあるパラメータを更新および識別するための適切な補助的TTTタスクを選択する。
トレーニングされたモデルに適応パラメータを追加し、テストフェーズでのみ適応パラメータを更新することを提案する。
論文 参考訳(メタデータ) (2023-04-10T10:12:38Z) - Revisiting Realistic Test-Time Training: Sequential Inference and
Adaptation by Anchored Clustering Regularized Self-Training [37.75537703971045]
テスト時アンカークラスタリング(TTAC)アプローチを開発し,より強力なテスト時特徴学習を実現する。
自己学習(ST)はラベルのないデータから学ぶ上で大きな成功を収めた。
TTAC++は、5つのTTデータセットの最先端メソッドを一貫して上回る。
論文 参考訳(メタデータ) (2023-03-20T04:30:18Z) - Frustratingly Simple Entity Tracking with Effective Use of Multi-Task
Learning Models [5.9585526937249]
SETは、手続きテキストにおけるエンティティトラッキングに対して、非常に単純かつ効果的なアプローチである。
ドメイン固有の事前トレーニングを必要とする最先端エンティティ追跡モデルと比較して、SETは単にカスタマイズされたフォーマットを備えた既製のT5を微調整する。
我々は,T5の教師付きマルチタスク学習が,SETの成功に重要な役割を担っていることを示す。
論文 参考訳(メタデータ) (2022-10-12T17:46:16Z) - Revisiting Realistic Test-Time Training: Sequential Inference and
Adaptation by Anchored Clustering [37.76664203157892]
テスト時アンカークラスタリング(TTAC)アプローチを開発し,より強力なテスト時特徴学習を実現する。
TTACはソースドメインとターゲットドメインの両方のクラスタを検出し、ターゲットクラスタとソースクラスタを一致させて、一般化を改善する。
すべてのTTプロトコルにおいて,TTACは5つのTTデータセットの最先端手法よりも一貫して優れていることを示す。
論文 参考訳(メタデータ) (2022-06-06T16:23:05Z) - FETA: A Benchmark for Few-Sample Task Transfer in Open-Domain Dialogue [70.65782786401257]
本研究は、オープンドメイン対話における少数サンプルタスク転送のベンチマークであるFETAを導入することにより、対話型タスク転送について検討する。
FETAには10タスクと7タスクがアノテートされた2つの基礎的な会話が含まれており、データセット内タスク転送の研究を可能にする。
3つの人気のある言語モデルと3つの学習アルゴリズムを用いて、132のソースターゲットタスクペア間の転送可能性を分析する。
論文 参考訳(メタデータ) (2022-05-12T17:59:00Z) - Weighted Training for Cross-Task Learning [71.94908559469475]
クロスタスク学習のための重み付きトレーニングアルゴリズムであるTarget-Aware Weighted Training (TAWT)を紹介する。
TAWTは実装が容易で、計算効率が高く、ハイパーパラメータチューニングがほとんど必要とせず、漸近的でない学習理論の保証を享受できることを示す。
副産物として、提案された表現に基づくタスク距離は、クロスタスク学習のいくつかの重要な側面について理論的に原則化された方法で推論することができる。
論文 参考訳(メタデータ) (2021-05-28T20:27:02Z) - Exploring Relational Context for Multi-Task Dense Prediction [76.86090370115]
我々は,共通バックボーンと独立タスク固有のヘッドで表される,密集予測タスクのためのマルチタスク環境を考える。
マルチタスク設定では,グローバルやローカルなど,さまざまな注意に基づくコンテキストを探索する。
タスクペアごとに利用可能なすべてのコンテキストのプールをサンプリングするAdaptive Task-Relational Contextモジュールを提案する。
論文 参考訳(メタデータ) (2021-04-28T16:45:56Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。