論文の概要: Pre-interpolation loss behaviour in neural networks
- arxiv url: http://arxiv.org/abs/2103.07986v1
- Date: Sun, 14 Mar 2021 18:08:59 GMT
- ステータス: 処理完了
- システム内更新日: 2021-03-16 14:27:56.423427
- Title: Pre-interpolation loss behaviour in neural networks
- Title(参考訳): ニューラルネットワークにおける補間損失挙動
- Authors: Arthur E. W. Venter and Marthinus W. Theunissen and Marelie H. Davel
- Abstract要約: テスト損失は全体としては増加せず,少数のサンプルに限られることを示す。
この効果は主に、正しく処理されたサンプルの特徴に関連するパラメータ値の増加に起因すると考えられる。
本研究は,ディープニューラルネットワークの共通行動の実用的理解に寄与する。
- 参考スコア(独自算出の注目度): 3.8716601453641886
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: When training neural networks as classifiers, it is common to observe an
increase in average test loss while still maintaining or improving the overall
classification accuracy on the same dataset. In spite of the ubiquity of this
phenomenon, it has not been well studied and is often dismissively attributed
to an increase in borderline correct classifications. We present an empirical
investigation that shows how this phenomenon is actually a result of the
differential manner by which test samples are processed. In essence: test loss
does not increase overall, but only for a small minority of samples. Large
representational capacities allow losses to decrease for the vast majority of
test samples at the cost of extreme increases for others. This effect seems to
be mainly caused by increased parameter values relating to the correctly
processed sample features. Our findings contribute to the practical
understanding of a common behaviour of deep neural networks. We also discuss
the implications of this work for network optimisation and generalisation.
- Abstract(参考訳): ニューラルネットワークを分類器としてトレーニングする場合、同じデータセット上の全体的な分類精度を維持または改善しながら、平均テスト損失の増加を観察することが一般的です。
この現象の普遍性にも拘わらず、よく研究されておらず、境界の正しい分類の増加によってしばしば軽視される。
本稿では,この現象が実際に試験試料の処理方法の違いの結果であることを示す実験的検討を行う。
本質的に: テスト損失は全体として増加しませんが、少数のサンプルのためにだけ。
大きい表現容量は他のための極度な増加の費用でテスト サンプルの大多数のための損失を減らすことを可能にします。
この効果は主に、正しく処理されたサンプルの特徴に関連するパラメータ値の増加に起因すると考えられる。
本研究は,ディープニューラルネットワークの共通行動の実用的理解に寄与する。
また、この作業がネットワーク最適化と一般化に果たす影響についても議論する。
関連論文リスト
- Theoretical Characterization of How Neural Network Pruning Affects its
Generalization [131.1347309639727]
この研究は、異なるプルーニング率がモデルの勾配降下ダイナミクスと一般化にどのように影響するかを研究する最初の試みである。
プルーニング率が一定の閾値以下である限り、勾配降下はトレーニング損失をゼロに導くことができる。
より驚くべきことに、プルーニング分数が大きくなるにつれて、一般化境界はより良くなる。
論文 参考訳(メタデータ) (2023-01-01T03:10:45Z) - With Greater Distance Comes Worse Performance: On the Perspective of
Layer Utilization and Model Generalization [3.6321778403619285]
ディープニューラルネットワークの一般化は、マシンラーニングにおける主要なオープンな問題の1つだ。
初期のレイヤは一般的に、トレーニングデータとテストデータの両方のパフォーマンスに関する表現を学びます。
より深いレイヤは、トレーニングのリスクを最小限に抑え、テストや不正なラベル付けされたデータとうまく連携できない。
論文 参考訳(メタデータ) (2022-01-28T05:26:32Z) - Why Lottery Ticket Wins? A Theoretical Perspective of Sample Complexity
on Pruned Neural Networks [79.74580058178594]
目的関数の幾何学的構造を解析することにより、刈り取られたニューラルネットワークを訓練する性能を解析する。
本稿では,ニューラルネットワークモデルがプルーニングされるにつれて,一般化が保証された望ましいモデル近傍の凸領域が大きくなることを示す。
論文 参考訳(メタデータ) (2021-10-12T01:11:07Z) - Predicting Unreliable Predictions by Shattering a Neural Network [145.3823991041987]
線形ニューラルネットワークは、サブファンクションに分割することができる。
サブファンクションは、独自のアクティベーションパターン、ドメイン、経験的エラーを持っている。
完全なネットワークに対する経験的エラーは、サブファンクションに対する期待として記述できる。
論文 参考訳(メタデータ) (2021-06-15T18:34:41Z) - Towards an Understanding of Benign Overfitting in Neural Networks [104.2956323934544]
現代の機械学習モデルは、しばしば膨大な数のパラメータを使用し、通常、トレーニング損失がゼロになるように最適化されている。
ニューラルネットワークの2層構成において、これらの良質な過適合現象がどのように起こるかを検討する。
本稿では,2層型ReLUネットワーク補間器を極小最適学習率で実現可能であることを示す。
論文 参考訳(メタデータ) (2021-06-06T19:08:53Z) - Uniform Convergence, Adversarial Spheres and a Simple Remedy [40.44709296304123]
これまでの研究は、統一収束の一般的な枠組みと、ニューラルネットワークの一般化を説明する能力に疑問を投げかけてきた。
我々は、無限大モデルのレンズを通して、以前に研究されたデータセットの広範な理論的検討を行う。
我々は、ニューラルタンジェントカーネル(NTK)も同じ現象に苦しむことを証明し、その起源を明らかにします。
論文 参考訳(メタデータ) (2021-05-07T20:23:01Z) - Vulnerability Under Adversarial Machine Learning: Bias or Variance? [77.30759061082085]
本研究では,機械学習が訓練された深層ニューラルネットワークのバイアスと分散に与える影響について検討する。
我々の分析は、ディープニューラルネットワークが対向的摂動下で性能が劣っている理由に光を当てている。
本稿では,計算処理の複雑さをよく知られた機械学習手法よりも低く抑えた,新しい逆機械学習アルゴリズムを提案する。
論文 参考訳(メタデータ) (2020-08-01T00:58:54Z) - Regularizing Class-wise Predictions via Self-knowledge Distillation [80.76254453115766]
類似サンプル間の予測分布を解析する新しい正規化法を提案する。
これにより、単一のネットワークの暗黒知識(すなわち誤った予測に関する知識)を規則化する。
画像分類タスクにおける実験結果から, 単純だが強力な手法が一般化能力を大幅に向上することを示した。
論文 参考訳(メタデータ) (2020-03-31T06:03:51Z) - AL2: Progressive Activation Loss for Learning General Representations in
Classification Neural Networks [12.14537824884951]
本稿では,トレーニング中のアクティベーションの規模を段階的に罰する新たな正規化手法を提案する。
本手法が一般化に与える影響をラベルランダム化試験と累積アブレーションを用いて解析した。
論文 参考訳(メタデータ) (2020-03-07T18:38:46Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。