論文の概要: Test-Time Augmentation Meets Variational Bayes
- arxiv url: http://arxiv.org/abs/2409.12587v1
- Date: Thu, 19 Sep 2024 09:11:01 GMT
- ステータス: 処理完了
- システム内更新日: 2024-11-07 14:19:13.526970
- Title: Test-Time Augmentation Meets Variational Bayes
- Title(参考訳): Test-Time Augmentationは変分ベイと出会う
- Authors: Masanari Kimura, Howard Bondell,
- Abstract要約: TTA(Test-Time Augmentation)は、テストフェーズでデータ拡張を活用して堅牢な予測を実現するテクニックである。
本研究では,TTAの重み付け版について,各データ拡張の貢献に基づいて検討する。
また,限界対数類似度を最大化するための重み付けを最適化することで,テストフェーズにおける不要なデータ増大の候補を抑えることを示す。
- 参考スコア(独自算出の注目度): 0.951494089949975
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Data augmentation is known to contribute significantly to the robustness of machine learning models. In most instances, data augmentation is utilized during the training phase. Test-Time Augmentation (TTA) is a technique that instead leverages these data augmentations during the testing phase to achieve robust predictions. More precisely, TTA averages the predictions of multiple data augmentations of an instance to produce a final prediction. Although the effectiveness of TTA has been empirically reported, it can be expected that the predictive performance achieved will depend on the set of data augmentation methods used during testing. In particular, the data augmentation methods applied should make different contributions to performance. That is, it is anticipated that there may be differing degrees of contribution in the set of data augmentation methods used for TTA, and these could have a negative impact on prediction performance. In this study, we consider a weighted version of the TTA based on the contribution of each data augmentation. Some variants of TTA can be regarded as considering the problem of determining the appropriate weighting. We demonstrate that the determination of the coefficients of this weighted TTA can be formalized in a variational Bayesian framework. We also show that optimizing the weights to maximize the marginal log-likelihood suppresses candidates of unwanted data augmentations at the test phase.
- Abstract(参考訳): データ拡張は、機械学習モデルの堅牢性に大きく貢献することが知られている。
ほとんどの場合、トレーニングフェーズでデータ拡張が利用されます。
TTA(Test-Time Augmentation)は、テストフェーズ中にこれらのデータ拡張を活用して、堅牢な予測を実現するテクニックである。
より正確には、TTAはインスタンスの複数のデータ拡張の予測を平均化し、最終的な予測を生成する。
TTAの有効性は実証的に報告されているが、得られた予測性能は、テスト中に使用されるデータ拡張手法のセットに依存することが期待できる。
特に、適用されるデータ拡張方法は、パフォーマンスに異なる貢献をするべきである。
すなわち、TTAで使用されるデータ拡張手法のセットには、コントリビューションの程度が異なっており、予測性能に悪影響を及ぼす可能性がある。
本研究では,TTAの重み付け版について,各データ拡張の貢献に基づいて検討する。
TTAのいくつかの変種は、適切な重み付けを決定する問題を考えることができる。
この重み付けされたTTAの係数の決定は変分ベイズ的枠組みで定式化できることを実証する。
また,限界対数類似度を最大化するための重み付けを最適化することで,テストフェーズにおける不要なデータ増大の候補を抑えることを示す。
関連論文リスト
- AETTA: Label-Free Accuracy Estimation for Test-Time Adaptation [7.079932622432037]
テスト時間適応(TTA)は、未ラベルのテストデータを使用して、事前訓練されたモデルをドメインシフトに適応するための実行可能なソリューションとして登場した。
ラベルのないTTAの精度推定アルゴリズムであるAETTAを提案する。
AETTAはベースラインと比較して平均19.8%の精度で推定可能である。
論文 参考訳(メタデータ) (2024-04-01T04:21:49Z) - Uncertainty-Calibrated Test-Time Model Adaptation without Forgetting [55.17761802332469]
テスト時間適応(TTA)は、与えられたモデルw.r.t.を任意のテストサンプルに適用することにより、トレーニングデータとテストデータの間の潜在的な分散シフトに取り組むことを目指している。
事前の手法は各テストサンプルに対してバックプロパゲーションを実行するため、多くのアプリケーションに対して許容できない最適化コストがかかる。
本稿では, 有効サンプル選択基準を策定し, 信頼性および非冗長なサンプルを同定する, 効率的なアンチフォッティングテスト時間適応法を提案する。
論文 参考訳(メタデータ) (2024-03-18T05:49:45Z) - Entropy is not Enough for Test-Time Adaptation: From the Perspective of
Disentangled Factors [36.54076844195179]
テストタイム適応(TTA) 未確認のテストデータのための訓練済みのディープニューラルネットワーク。
本稿では,Destroy Your Object (DeYO) という新しいTTA手法を紹介する。
論文 参考訳(メタデータ) (2024-03-12T07:01:57Z) - TEA: Test-time Energy Adaptation [67.4574269851666]
テスト時間適応(TTA)は、テストデータがトレーニング分布から分岐する際のモデル一般化性を改善することを目的としている。
本稿では,対象データ分布に対するモデルによる認識を高めるための,新しいエネルギーベース視点を提案する。
論文 参考訳(メタデータ) (2023-11-24T10:49:49Z) - Diverse Data Augmentation with Diffusions for Effective Test-time Prompt
Tuning [73.75282761503581]
DiffTPTを提案する。DiffTPTは,事前学習した拡散モデルを用いて,多種多様な情報データを生成する。
DiffTPTがゼロショット精度を平均5.13%向上することを示す。
論文 参考訳(メタデータ) (2023-08-11T09:36:31Z) - A Comprehensive Survey on Test-Time Adaptation under Distribution Shifts [143.14128737978342]
新たなパラダイムであるテスト時適応は、事前トレーニングされたモデルをテスト中にラベルのないデータに適用し、予測を行う可能性がある。
このパラダイムの最近の進歩は、推論に先立って自己適応モデルのトレーニングにラベルのないデータを活用するという大きな利点を浮き彫りにしている。
論文 参考訳(メタデータ) (2023-03-27T16:32:21Z) - Robust Continual Test-time Adaptation: Instance-aware BN and
Prediction-balanced Memory [58.72445309519892]
テストデータストリーム以外のデータストリームに対して堅牢な新しいテスト時間適応方式を提案する。
a)分布外サンプルの正規化を修正するIABN(Instance-Aware Batch Normalization)と、(b)クラスバランスのない方法で非i.d.ストリームからのデータストリームをシミュレートするPBRS(Predict- Balanced Reservoir Sampling)である。
論文 参考訳(メタデータ) (2022-08-10T03:05:46Z) - Improved Text Classification via Test-Time Augmentation [2.493374942115722]
テスト時間拡張は画像分類モデルの性能を向上させるための確立された手法である。
本稿では,言語モデルによる精度向上を実現するための拡張ポリシーを提案する。
バイナリ分類タスクとデータセットによる実験は、テスト時間拡張が一貫した改善をもたらすことを示している。
論文 参考訳(メタデータ) (2022-06-27T19:57:27Z) - Augmentation-Aware Self-Supervision for Data-Efficient GAN Training [68.81471633374393]
識別器が過度に適合する傾向があるため、限られたデータでGANを訓練することは困難である。
本稿では,拡張データの拡張パラメータを予測する,拡張型自己教師型識別器を提案する。
本稿では,クラス条件の BigGAN と非条件の StyleGAN2 アーキテクチャを用いた State-of-the-art (SOTA) 手法と比較する。
論文 参考訳(メタデータ) (2022-05-31T10:35:55Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。