論文の概要: ClusT3: Information Invariant Test-Time Training
- arxiv url: http://arxiv.org/abs/2310.12345v1
- Date: Wed, 18 Oct 2023 21:43:37 GMT
- ステータス: 処理完了
- システム内更新日: 2023-10-20 17:47:47.137107
- Title: ClusT3: Information Invariant Test-Time Training
- Title(参考訳): ClusT3:情報不変テストタイムトレーニング
- Authors: Gustavo A. Vargas Hakim and David Osowiechi and Mehrdad Noori and
Milad Cheraghalikhani and Ismail Ben Ayed and Christian Desrosiers
- Abstract要約: これらの脆弱性を軽減するため、TTT(Test-time Training)法が開発されている。
マルチスケール特徴写像と離散潜在表現の相互情報に基づく新しい非教師付きTTT手法を提案する。
実験結果から, 様々なテスト時間適応ベンチマークにおいて, 競争力のある分類性能が示された。
- 参考スコア(独自算出の注目度): 19.461441044484427
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Deep Learning models have shown remarkable performance in a broad range of
vision tasks. However, they are often vulnerable against domain shifts at
test-time. Test-time training (TTT) methods have been developed in an attempt
to mitigate these vulnerabilities, where a secondary task is solved at training
time simultaneously with the main task, to be later used as an self-supervised
proxy task at test-time. In this work, we propose a novel unsupervised TTT
technique based on the maximization of Mutual Information between multi-scale
feature maps and a discrete latent representation, which can be integrated to
the standard training as an auxiliary clustering task. Experimental results
demonstrate competitive classification performance on different popular
test-time adaptation benchmarks.
- Abstract(参考訳): ディープラーニングモデルは、幅広いビジョンタスクにおいて顕著なパフォーマンスを示している。
しかし、テスト時にドメインシフトに弱いことが多い。
テストタイムトレーニング(TTT)手法は、これらの脆弱性を軽減するために開発され、二次タスクがメインタスクと同時にトレーニング時に解決され、後にテスト時に自己監督的なプロキシタスクとして使用される。
本研究では,マルチスケール特徴写像と離散潜在表現の相互情報の最大化に基づく新しい非教師付きTTT手法を提案する。
実験結果から, 各種テスト時間適応ベンチマークにおける競合分類性能が示された。
関連論文リスト
- Adaptive Cascading Network for Continual Test-Time Adaptation [12.718826132518577]
そこで本研究では,テスト時に対象ドメインの列に事前学習したソースモデルを適応させることを目標とする連続的なテスト時間適応の問題について検討する。
テストタイムトレーニングの既存の方法には、いくつかの制限がある。
論文 参考訳(メタデータ) (2024-07-17T01:12:57Z) - Combating Missing Modalities in Egocentric Videos at Test Time [92.38662956154256]
現実のアプリケーションは、プライバシの懸念、効率性の必要性、ハードウェアの問題により、不完全なモダリティを伴う問題に直面することが多い。
再トレーニングを必要とせずに,テスト時にこの問題に対処する新しい手法を提案する。
MiDlは、欠落したモダリティをテスト時にのみ扱う、自己管理型のオンラインソリューションとしては初めてのものだ。
論文 参考訳(メタデータ) (2024-04-23T16:01:33Z) - Test-Time Training on Graphs with Large Language Models (LLMs) [68.375487369596]
グラフニューラルネットワーク(GNN)をトレーニングするための有望なアプローチとして,TTT(Test-Time Training)が提案されている。
テキスト分散グラフ(TAG)上でのLLM(Large Language Models)の優れたアノテーション能力に着想を得て,LLMをアノテータとしてグラフ上でのテスト時間トレーニングを強化することを提案する。
2段階のトレーニング戦略は、限定的でノイズの多いラベルでテストタイムモデルを調整するように設計されている。
論文 参考訳(メタデータ) (2024-04-21T08:20:02Z) - NC-TTT: A Noise Contrastive Approach for Test-Time Training [19.0284321951354]
ノイズコントラストテストタイムトレーニング(NC-TTT)は,ノイズの特徴マップの識別に基づく非教師なしTTT技術である。
予測された特徴写像のノイズの多いビューを分類し、新しい領域に応じてモデルを適応させることで、分類性能を重要なマージンで回復させることができる。
論文 参考訳(メタデータ) (2024-04-12T10:54:11Z) - Test-Time Adaptation with Perturbation Consistency Learning [32.58879780726279]
そこで本研究では, 分布変化のあるサンプルに対して, 安定な予測を行うための簡易なテスト時間適応手法を提案する。
提案手法は,強力なPLMバックボーンよりも推論時間が少なく,高い,あるいは同等の性能を実現することができる。
論文 参考訳(メタデータ) (2023-04-25T12:29:22Z) - Improved Test-Time Adaptation for Domain Generalization [48.239665441875374]
テストタイムトレーニング(TTT)は、学習したモデルにテストデータを適用する。
この作業は2つの主な要因に対処する: テストフェーズ中にアップデートする信頼性のあるパラメータを更新および識別するための適切な補助的TTTタスクを選択する。
トレーニングされたモデルに適応パラメータを追加し、テストフェーズでのみ適応パラメータを更新することを提案する。
論文 参考訳(メタデータ) (2023-04-10T10:12:38Z) - A Comprehensive Survey on Test-Time Adaptation under Distribution Shifts [143.14128737978342]
新たなパラダイムであるテスト時適応は、事前トレーニングされたモデルをテスト中にラベルのないデータに適用し、予測を行う可能性がある。
このパラダイムの最近の進歩は、推論に先立って自己適応モデルのトレーニングにラベルのないデータを活用するという大きな利点を浮き彫りにしている。
論文 参考訳(メタデータ) (2023-03-27T16:32:21Z) - TTTFlow: Unsupervised Test-Time Training with Normalizing Flow [18.121961548745112]
画像分類におけるディープニューラルネットワークの大きな問題は、テスト時のドメイン変更に対する脆弱性である。
近年,テストタイム・トレーニング (TTT) でこの問題に対処する手法が提案されている。
本稿では、正規化フローに基づく教師なしヘッドを用いたY字型アーキテクチャTTTFlowを提案し、潜在特徴の正規分布を学習し、テスト例におけるドメインシフトを検出する。
論文 参考訳(メタデータ) (2022-10-20T16:32:06Z) - TeST: Test-time Self-Training under Distribution Shift [99.68465267994783]
Test-Time Self-Training (TeST)は、あるソースデータとテスト時の新しいデータ分散に基づいてトレーニングされたモデルを入力する技術である。
また,TeSTを用いたモデルでは,ベースラインテスト時間適応アルゴリズムよりも大幅に改善されていることがわかった。
論文 参考訳(メタデータ) (2022-09-23T07:47:33Z) - Test-Agnostic Long-Tailed Recognition by Test-Time Aggregating Diverse
Experts with Self-Supervision [85.07855130048951]
本研究では,テスト非依存型ロングテール認識(test-agnostic long-tailed recognition)と呼ばれる,より実践的なタスク設定について検討する。
本稿では,多種多様な専門家に異なるテスト分布を扱うように訓練するTADE(Test-time Aggregating Diverse Experts)と呼ばれる新しい手法を提案する。
理論的には,提案手法は未知のテストクラス分布をシミュレートできることを示す。
論文 参考訳(メタデータ) (2021-07-20T04:10:31Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。