論文の概要: Learning Loss for Test-Time Augmentation
- arxiv url: http://arxiv.org/abs/2010.11422v1
- Date: Thu, 22 Oct 2020 03:56:34 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-04 04:53:33.545709
- Title: Learning Loss for Test-Time Augmentation
- Title(参考訳): テスト時間拡張のための学習損失
- Authors: Ildoo Kim, Younghoon Kim, Sungwoong Kim
- Abstract要約: 本稿では,テスト入力に適した変換を効率的に選択できる新しいインスタンスレベルのテスト時間拡張を提案する。
いくつかの画像分類ベンチマークによる実験結果から,提案したインスタンス認識テスト時拡張により,様々な汚損に対するモデルの堅牢性が向上することが示された。
- 参考スコア(独自算出の注目度): 25.739449801033846
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Data augmentation has been actively studied for robust neural networks. Most
of the recent data augmentation methods focus on augmenting datasets during the
training phase. At the testing phase, simple transformations are still widely
used for test-time augmentation. This paper proposes a novel instance-level
test-time augmentation that efficiently selects suitable transformations for a
test input. Our proposed method involves an auxiliary module to predict the
loss of each possible transformation given the input. Then, the transformations
having lower predicted losses are applied to the input. The network obtains the
results by averaging the prediction results of augmented inputs. Experimental
results on several image classification benchmarks show that the proposed
instance-aware test-time augmentation improves the model's robustness against
various corruptions.
- Abstract(参考訳): データ拡張はロバストなニューラルネットワークで積極的に研究されている。
最近のデータ拡張手法のほとんどは、トレーニングフェーズにおけるデータセットの強化に重点を置いている。
テストフェーズでは、単純な変換がテスト時間拡張に広く使用されている。
本稿では,テスト入力に適した変換を効率的に選択できる新しいインスタンスレベルのテスト時間拡張を提案する。
提案手法は,入力された各変換の損失を予測する補助モジュールを含む。
そして、入力に対して、予測損失の少ない変換を適用する。
ネットワークは、拡張入力の予測結果を平均することで結果を得る。
いくつかの画像分類ベンチマークによる実験結果から,提案したインスタンス認識テスト時拡張により,様々な汚損に対するモデルの堅牢性が向上することが示された。
関連論文リスト
- Learning on Transformers is Provable Low-Rank and Sparse: A One-layer Analysis [63.66763657191476]
低ランク計算としての効率的な数値学習と推論アルゴリズムはトランスフォーマーに基づく適応学習に優れた性能を持つことを示す。
我々は、等級モデルが適応性を改善しながら一般化にどのように影響するかを分析する。
適切なマグニチュードベースのテストは,テストパフォーマンスに多少依存している,と結論付けています。
論文 参考訳(メタデータ) (2024-06-24T23:00:58Z) - Diverse Data Augmentation with Diffusions for Effective Test-time Prompt
Tuning [73.75282761503581]
DiffTPTを提案する。DiffTPTは,事前学習した拡散モデルを用いて,多種多様な情報データを生成する。
DiffTPTがゼロショット精度を平均5.13%向上することを示す。
論文 参考訳(メタデータ) (2023-08-11T09:36:31Z) - Improved Text Classification via Test-Time Augmentation [2.493374942115722]
テスト時間拡張は画像分類モデルの性能を向上させるための確立された手法である。
本稿では,言語モデルによる精度向上を実現するための拡張ポリシーを提案する。
バイナリ分類タスクとデータセットによる実験は、テスト時間拡張が一貫した改善をもたらすことを示している。
論文 参考訳(メタデータ) (2022-06-27T19:57:27Z) - CAFA: Class-Aware Feature Alignment for Test-Time Adaptation [50.26963784271912]
テスト時間適応(TTA)は、テスト時にラベルのないデータにモデルを適応させることによって、この問題に対処することを目的としている。
本稿では,クラス認識特徴アライメント(CAFA, Class-Aware Feature Alignment)と呼ばれる単純な機能アライメント損失を提案する。
論文 参考訳(メタデータ) (2022-06-01T03:02:07Z) - TTAPS: Test-Time Adaption by Aligning Prototypes using Self-Supervision [70.05605071885914]
本研究では,単体テストサンプルに適用可能な自己教師付きトレーニングアルゴリズムSwaVの新たな改良を提案する。
ベンチマークデータセットCIFAR10-Cにおいて,本手法の有効性を示す。
論文 参考訳(メタデータ) (2022-05-18T05:43:06Z) - Efficient Test-Time Model Adaptation without Forgetting [60.36499845014649]
テストタイム適応は、トレーニングとテストデータの間の潜在的な分散シフトに取り組むことを目指している。
信頼性および非冗長なサンプルを同定するためのアクティブなサンプル選択基準を提案する。
また、重要なモデルパラメータを劇的な変化から制約するFisher regularizerを導入します。
論文 参考訳(メタデータ) (2022-04-06T06:39:40Z) - MEMO: Test Time Robustness via Adaptation and Augmentation [131.28104376280197]
テスト時間ロバスト化の問題、すなわちモデルロバスト性を改善するためにテストインプットを用いて検討する。
最近の先行研究ではテスト時間適応法が提案されているが、それぞれ追加の仮定を導入している。
モデルが確率的で適応可能な任意のテスト環境で使用できるシンプルなアプローチを提案する。
論文 参考訳(メタデータ) (2021-10-18T17:55:11Z) - Test-Time Adaptation to Distribution Shift by Confidence Maximization
and Input Transformation [44.494319305269535]
ニューラルネットワークは、トレインタイムのデータ分散下ではありそうもないデータに対して、低いパフォーマンスを示すことが多い。
本稿では,対象分布からのラベル付きデータのみを必要とする完全テスト時間適応設定に焦点をあてる。
本稿では,初期収束とエントロピー最小化の不安定性の両方に対処することにより,テスト時間適応を改善する新しい損失を提案する。
論文 参考訳(メタデータ) (2021-06-28T22:06:10Z) - Better Aggregation in Test-Time Augmentation [4.259219671110274]
テスト時間拡張(Test-time augmentation)は、テスト入力の変換されたバージョン間での予測の集約である。
重要な発見は、テストタイムの増大が正確性を大幅に向上させたとしても、多くの正しい予測を誤った予測に変更できるということである。
本稿では,テスト時間増強のための学習に基づく手法を提案する。
論文 参考訳(メタデータ) (2020-11-23T00:46:00Z) - Self-paced Data Augmentation for Training Neural Networks [11.554821454921536]
本稿では,ニューラルネットワークをトレーニングする際のデータ拡張に適したサンプルを自動的に選択するセルフペース拡張を提案する。
提案手法は,非効率なデータ拡張による一般化性能の低下を緩和する。
実験結果から,SPAは,特にトレーニングサンプル数が少ない場合,一般化性能を向上できることが示された。
論文 参考訳(メタデータ) (2020-10-29T09:13:18Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。