論文の概要: Easy Batch Normalization
- arxiv url: http://arxiv.org/abs/2207.08940v1
- Date: Mon, 18 Jul 2022 21:01:09 GMT
- ステータス: 処理完了
- システム内更新日: 2022-07-20 13:18:42.737428
- Title: Easy Batch Normalization
- Title(参考訳): 簡易バッチ正規化
- Authors: Arip Asadulaev, Alexander Panfilov, Andrey Filchenkov
- Abstract要約: 簡単な例は、機械学習モデルが高い信頼性で正しく分類するサンプルである。
本稿では,標準および堅牢な精度向上のための簡単な例として,補助バッチ正規化を提案する。
- 参考スコア(独自算出の注目度): 73.89838982331453
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: It was shown that adversarial examples improve object recognition. But what
about their opposite side, easy examples? Easy examples are samples that the
machine learning model classifies correctly with high confidence. In our paper,
we are making the first step toward exploring the potential benefits of using
easy examples in the training procedure of neural networks. We propose to use
an auxiliary batch normalization for easy examples for the standard and robust
accuracy improvement.
- Abstract(参考訳): その結果,敵対例は物体認識を改善することがわかった。
しかし、その逆の簡単な例はどうでしょう?
簡単な例は、機械学習モデルが高い信頼性で正しく分類するサンプルである。
本稿では、ニューラルネットワークのトレーニング手順において、簡単な例を使うことの潜在的なメリットを探求する第一歩を踏み出します。
標準的かつロバストな精度向上のための簡単な例として,補助バッチ正規化を提案する。
関連論文リスト
- Understanding prompt engineering may not require rethinking
generalization [56.38207873589642]
言語モデルによって与えられるPAC-Bayesと組み合わさったプロンプトの離散的性質は、文献の標準によって非常に厳密な一般化境界をもたらすことを示す。
この研究は、プロンプトエンジニアリングの広範な実践を正当化する可能性がある。
論文 参考訳(メタデータ) (2023-10-06T00:52:48Z) - POODLE: Improving Few-shot Learning via Penalizing Out-of-Distribution
Samples [19.311470287767385]
そこで本研究では,対象クラス外からのラベル付きサンプルの配布外サンプルを用いて,数発の学習を改善することを提案する。
提案手法は, 実装が簡単で, 特徴抽出器に非依存であり, 事前学習に要する追加コストを伴わず軽量であり, インダクティブ設定とトランスダクティブ設定の両方に適用可能である。
論文 参考訳(メタデータ) (2022-06-08T18:59:21Z) - Adversarial Examples for Good: Adversarial Examples Guided Imbalanced
Learning [15.370413523189749]
不均衡データの扱い方に関する新たな視点として,GAE(Guiding Adversarial Examples)によるトレーニングによるバイアス付き決定境界の調整について述べる。
本手法は,少数クラスの精度を効果的に向上し,多数派の精度を損なうことができる。
論文 参考訳(メタデータ) (2022-01-28T09:13:07Z) - When in Doubt, Summon the Titans: Efficient Inference with Large Models [80.2673230098021]
本稿では,大規模モデルのモデル化の利点を実現する蒸留に基づく2段階の枠組みを提案する。
簡単な"例のサブセットでのみ正確な予測を行うために、私たちは、大きな教師モデルを使用して、軽量な学生モデルをガイドします。
提案した蒸留法は, 簡単な事例のみを扱うため, 学生規模でより積極的なトレードオフが可能であり, 推論の償却コストを低減できる。
論文 参考訳(メタデータ) (2021-10-19T22:56:49Z) - Reordering Examples Helps during Priming-based Few-Shot Learning [6.579039107070663]
PERO は 10 個の例から効率よく一般化できることを示す。
提案手法が感情分類,自然言語推論,事実検索のタスクに与える影響を実証する。
論文 参考訳(メタデータ) (2021-06-03T11:02:36Z) - Evading the Simplicity Bias: Training a Diverse Set of Models Discovers
Solutions with Superior OOD Generalization [93.8373619657239]
SGDで訓練されたニューラルネットワークは最近、線形予測的特徴に優先的に依存することが示された。
この単純さバイアスは、分布外堅牢性(OOD)の欠如を説明することができる。
単純さのバイアスを軽減し,ood一般化を改善できることを実証する。
論文 参考訳(メタデータ) (2021-05-12T12:12:24Z) - Contrastive Learning with Hard Negative Samples [80.12117639845678]
我々は, 厳密な陰性サンプルを選択するために, 教師なしサンプリング手法を新たに開発する。
このサンプリングの制限ケースは、各クラスをしっかりとクラスタ化し、可能な限り異なるクラスを遠くにプッシュする表現をもたらす。
提案手法は、複数のモードをまたいだダウンストリーム性能を改善し、実装するコード行数が少なく、計算オーバーヘッドを伴わない。
論文 参考訳(メタデータ) (2020-10-09T14:18:53Z) - Contextualizing Enhances Gradient Based Meta Learning [7.009032627535598]
本稿では,メタラーニング手法を文脈解析器と組み合わせることで,いくつかのショットラーニングデータセットの性能を著しく向上させることができることを示す。
オーバーフィットすることなくパラメータを更新することが困難である低データ環境に対して,我々のアプローチは特に適しています。
論文 参考訳(メタデータ) (2020-07-17T04:01:56Z) - Robust and On-the-fly Dataset Denoising for Image Classification [72.10311040730815]
On-the-fly Data Denoising (ODD)は、間違ったラベルの例に対して堅牢だが、通常のトレーニングと比べて計算オーバーヘッドはほぼゼロである。
ODDはWebVisionやClothing1Mといった現実世界のデータセットを含む、幅広いデータセットで最先端の結果を達成することができる。
論文 参考訳(メタデータ) (2020-03-24T03:59:26Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。