論文の概要: Bag of Tricks for Fully Test-Time Adaptation
- arxiv url: http://arxiv.org/abs/2310.02416v1
- Date: Tue, 3 Oct 2023 20:28:09 GMT
- ステータス: 処理完了
- システム内更新日: 2023-10-05 17:42:19.663205
- Title: Bag of Tricks for Fully Test-Time Adaptation
- Title(参考訳): 完全テスト時間適応のためのトリックの袋
- Authors: Saypraseuth Mounsaveng, Florent Chiaroni, Malik Boudiaf, Marco
Pedersoli, Ismail Ben Ayed
- Abstract要約: 本稿では, バッチ正規化, ストリームリバランシング, 信頼性サンプル選択, ネットワーク信頼度校正など, 選択したTTA手法の分類について述べる。
我々は、精度、計算能力、複雑さの間のテクニックによって引き起こされるトレードオフに光を当てた。
また、技術を組み合わせる際に生じる相乗効果を明らかにし、新しい最先端の結果を確立することができる。
- 参考スコア(独自算出の注目度): 21.295590695946753
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Fully Test-Time Adaptation (TTA), which aims at adapting models to data
drifts, has recently attracted wide interest. Numerous tricks and techniques
have been proposed to ensure robust learning on arbitrary streams of unlabeled
data. However, assessing the true impact of each individual technique and
obtaining a fair comparison still constitutes a significant challenge. To help
consolidate the community's knowledge, we present a categorization of selected
orthogonal TTA techniques, including small batch normalization, stream
rebalancing, reliable sample selection, and network confidence calibration. We
meticulously dissect the effect of each approach on different scenarios of
interest. Through our analysis, we shed light on trade-offs induced by those
techniques between accuracy, the computational power required, and model
complexity. We also uncover the synergy that arises when combining techniques
and are able to establish new state-of-the-art results.
- Abstract(参考訳): データドリフトへのモデル適応を目的とした完全テストタイム適応(tta)が最近注目を集めている。
ラベルなしデータの任意のストリームに対する堅牢な学習を保証するための、数多くのトリックとテクニックが提案されている。
しかし、各技法の真の影響を評価し、公平な比較を得ることは依然として大きな課題となっている。
コミュニティの知識を集約するために,我々は,小規模バッチ正規化,ストリーム再バランス,信頼性の高いサンプル選択,ネットワーク信頼度校正など,選択した直交TTA手法の分類を提案する。
それぞれのアプローチが関心の異なるシナリオに与える影響を慎重に判別する。
分析を通じて、精度、計算能力、モデルの複雑さの間のテクニックによって引き起こされるトレードオフに光を当てた。
また,技術の組み合わせによって生じる相乗効果を明らかにし,新たな最先端の成果を樹立する。
関連論文リスト
- Improving Trip Mode Choice Modeling Using Ensemble Synthesizer (ENSY) [2.5799044614524664]
Ensemble Synthesizer (ENSY)は、モード選択データセットの分類精度を高めるために特別に設計された、新しいデータモデルである。
ENSYは、マイノリティクラスのF1スコアをほぼ4倍にし、全体的な分類精度を3%近く改善することで、顕著な効果を示す。
論文 参考訳(メタデータ) (2024-07-01T19:59:29Z) - Active Test-Time Adaptation: Theoretical Analyses and An Algorithm [51.84691955495693]
テスト時間適応(TTA)は、教師なし設定でストリーミングテストデータの分散シフトに対処する。
完全TTA設定内に能動学習を統合する能動テスト時間適応(ATTA)の新たな問題設定を提案する。
論文 参考訳(メタデータ) (2024-04-07T22:31:34Z) - TEA: Test-time Energy Adaptation [67.4574269851666]
テスト時間適応(TTA)は、テストデータがトレーニング分布から分岐する際のモデル一般化性を改善することを目的としている。
本稿では,対象データ分布に対するモデルによる認識を高めるための,新しいエネルギーベース視点を提案する。
論文 参考訳(メタデータ) (2023-11-24T10:49:49Z) - UNIDEAL: Curriculum Knowledge Distillation Federated Learning [17.817181326740698]
フェデレートラーニング(FL)は、複数のクライアント間で協調学習を可能にする、有望なアプローチとして登場した。
本稿では,ドメイン横断シナリオの課題に対処するための新しいFLアルゴリズムであるUNIを提案する。
この結果から,UNIはモデル精度と通信効率の両面において優れた性能を発揮することが示された。
論文 参考訳(メタデータ) (2023-09-16T11:30:29Z) - Diverse Data Augmentation with Diffusions for Effective Test-time Prompt
Tuning [73.75282761503581]
DiffTPTを提案する。DiffTPTは,事前学習した拡散モデルを用いて,多種多様な情報データを生成する。
DiffTPTがゼロショット精度を平均5.13%向上することを示す。
論文 参考訳(メタデータ) (2023-08-11T09:36:31Z) - Delving into Identify-Emphasize Paradigm for Combating Unknown Bias [52.76758938921129]
同定精度を高めるため,有効バイアス強調スコアリング法(ECS)を提案する。
また, マイニングされたバイアスアライメントとバイアスコンプリケート試料のコントリビューションのバランスをとるために, 勾配アライメント(GA)を提案する。
様々な環境で複数のデータセットで実験を行い、提案されたソリューションが未知のバイアスの影響を軽減することを実証した。
論文 参考訳(メタデータ) (2023-02-22T14:50:24Z) - Straggler-Resilient Personalized Federated Learning [55.54344312542944]
フェデレーション学習は、プライバシと通信の制限を尊重しながら、クライアントの大規模なネットワークに分散されたサンプルからのトレーニングモデルを可能にする。
これら2つのハードルを同時に処理する理論的なスピードアップを保証する新しいアルゴリズム手法を開発した。
提案手法は,すべてのクライアントのデータを用いてグローバルな共通表現を見つけ,各クライアントに対してパーソナライズされたソリューションにつながるパラメータの集合を学習するために,表現学習理論からのアイデアに依存している。
論文 参考訳(メタデータ) (2022-06-05T01:14:46Z) - CAFE: Learning to Condense Dataset by Aligning Features [72.99394941348757]
本稿ではCAFE(Aligning features)によるCondenseデータセットの新しいスキームを提案する。
このアプローチの核心は、さまざまなスケールにわたる実データと合成データから機能を整合させる効果的な戦略です。
提案したCAFEを様々なデータセットで検証し,概ね最先端技術であることを示す。
論文 参考訳(メタデータ) (2022-03-03T05:58:49Z) - FedRAD: Federated Robust Adaptive Distillation [7.775374800382709]
一般的にモデルの更新を集約するコラボレーション学習フレームワークは、敵のクライアントによる毒殺攻撃のモデルに対して脆弱である。
本稿では,新たなロバスト適応蒸留法 (FedRAD) を提案する。
その結果,FedRADは敵の存在や異種データ分布において,他のアグリゲータよりも優れていた。
論文 参考訳(メタデータ) (2021-12-02T16:50:57Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。