論文の概要: Regularization by Misclassification in ReLU Neural Networks
- arxiv url: http://arxiv.org/abs/2111.02154v1
- Date: Wed, 3 Nov 2021 11:42:38 GMT
- ステータス: 翻訳完了
- システム内更新日: 2021-11-04 14:17:05.862764
- Title: Regularization by Misclassification in ReLU Neural Networks
- Title(参考訳): reluニューラルネットワークにおける誤分類による正規化
- Authors: Elisabetta Cornacchia, Jan H\k{a}z{\l}a, Ido Nachum, Amir Yehudayoff
- Abstract要約: SGDの変種によって訓練されたReLUニューラルネットワークの暗黙バイアスについて検討し、各ステップで確率$p$でラベルをランダムラベルに変更する。
ラベルノイズは、典型的な入力の場合、少数のニューロンがアクティブであり、隠れた層の発火パターンはスペーサーである。
- 参考スコア(独自算出の注目度): 3.288086999241324
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We study the implicit bias of ReLU neural networks trained by a variant of
SGD where at each step, the label is changed with probability $p$ to a random
label (label smoothing being a close variant of this procedure). Our
experiments demonstrate that label noise propels the network to a sparse
solution in the following sense: for a typical input, a small fraction of
neurons are active, and the firing pattern of the hidden layers is sparser. In
fact, for some instances, an appropriate amount of label noise does not only
sparsify the network but further reduces the test error. We then turn to the
theoretical analysis of such sparsification mechanisms, focusing on the
extremal case of $p=1$. We show that in this case, the network withers as
anticipated from experiments, but surprisingly, in different ways that depend
on the learning rate and the presence of bias, with either weights vanishing or
neurons ceasing to fire.
- Abstract(参考訳): sgd の変種によって訓練された relu ニューラルネットワークの暗黙のバイアスについて検討し,各ステップにおいて確率 $p$ でラベルをランダムラベルに変更する(ラベル平滑化はこの手順の近縁な変種である)。
実験により、ラベルノイズは、典型的な入力の場合、少数のニューロンがアクティブであり、隠れた層の発火パターンはスペーサーである。
実際に、いくつかのケースでは、適切なラベルノイズがネットワークを混乱させるだけでなく、テストエラーを減らす。
すると、そのようなスパーシフィケーション機構の理論解析に目を向け、$p=1$の極端ケースに焦点をあてる。
このケースでは、ネットワークは実験から予想されたように枯渇するが、驚くべきことに、学習速度とバイアスの存在に依存するさまざまな方法で、重みが消失するか、ニューロンが燃え尽きるかのどちらかである。
関連論文リスト
- Low-rank bias, weight decay, and model merging in neural networks [12.352761060862072]
我々は、L2$正規化でトレーニングされたディープニューラルネットワークのいくつかの特性を示す。
また、L2$正規化と低ランクバイアスによって実現されるマルチタスク学習現象についても検討した。
論文 参考訳(メタデータ) (2025-02-24T17:17:00Z) - Benign Overfitting for Two-layer ReLU Convolutional Neural Networks [60.19739010031304]
ラベルフリップ雑音を持つ2層ReLU畳み込みニューラルネットワークを学習するためのアルゴリズム依存型リスクバウンダリを確立する。
緩やかな条件下では、勾配降下によってトレーニングされたニューラルネットワークは、ほぼゼロに近いトレーニング損失とベイズ最適試験リスクを達成できることを示す。
論文 参考訳(メタデータ) (2023-03-07T18:59:38Z) - Neuroevolutionary algorithms driven by neuron coverage metrics for
semi-supervised classification [60.60571130467197]
一部の機械学習アプリケーションでは、ラベル付けされていないインスタンスが豊富であるのに対して、教師付き分類のためのラベル付きインスタンスの可用性は制限されている。
本稿では、ニューラルネットワークアーキテクチャ上で計算されたニューラルネットワークカバレッジメトリクスを用いて、未ラベルのインスタンスを利用する神経進化的アプローチを提案する。
論文 参考訳(メタデータ) (2023-03-05T23:38:44Z) - On the Effective Number of Linear Regions in Shallow Univariate ReLU
Networks: Convergence Guarantees and Implicit Bias [50.84569563188485]
我々は、ラベルが$r$のニューロンを持つターゲットネットワークの符号によって決定されるとき、勾配流が方向収束することを示す。
我々の結果は、標本サイズによらず、幅が$tildemathcalO(r)$である、緩やかなオーバーパラメータ化をすでに維持しているかもしれない。
論文 参考訳(メタデータ) (2022-05-18T16:57:10Z) - Non-Vacuous Generalisation Bounds for Shallow Neural Networks [5.799808780731661]
我々は、単一の隠蔽層を持つ特定の種類の浅いニューラルネットワークに焦点を当てる。
我々はPAC-ベイジアン理論を通じて新しい一般化を導出する。
ネットワークがMNISTとFashion-MNISTのバニラ勾配勾配降下で訓練される場合,我々の限界は経験的に非空洞である。
論文 参考訳(メタデータ) (2022-02-03T14:59:51Z) - Nonparametric Regression with Shallow Overparameterized Neural Networks
Trained by GD with Early Stopping [11.24426822697648]
GD(Gradient Descent)によってトレーニングされたニューラルネットワークは,入力に対してスムーズであることを示す。
ノイズフリーの場合、証明はいかなる核化にも依存せず、有限幅の結果と見なすことができる。
論文 参考訳(メタデータ) (2021-07-12T11:56:53Z) - Adversarial Examples Detection with Bayesian Neural Network [57.185482121807716]
本稿では,ランダムな成分が予測器の滑らかさを向上できるという観測によって動機づけられた敵の例を検出するための新しい枠組みを提案する。
本稿では,BATer を略した新しいベイズ対向型サンプル検出器を提案し,対向型サンプル検出の性能を向上させる。
論文 参考訳(メタデータ) (2021-05-18T15:51:24Z) - Bayesian Nested Neural Networks for Uncertainty Calibration and Adaptive
Compression [40.35734017517066]
ネストネットワーク(Nested Network)またはスリムブルネットワーク(Slimmable Network)は、テスト期間中にアーキテクチャを即座に調整できるニューラルネットワークである。
最近の研究は、トレーニング中に重要なレイヤのノードを順序付けできる"ネストされたドロップアウト"層に焦点を当てている。
論文 参考訳(メタデータ) (2021-01-27T12:34:58Z) - Provable Generalization of SGD-trained Neural Networks of Any Width in
the Presence of Adversarial Label Noise [85.59576523297568]
勾配降下法により学習した任意の幅の1層リークReLUネットワークを考察する。
sgdは,分布上の最良半空間に匹敵する分類精度を持つニューラルネットワークを生成できることを実証する。
論文 参考訳(メタデータ) (2021-01-04T18:32:49Z) - Generalized Quantile Loss for Deep Neural Networks [0.8594140167290096]
このノートは、回帰ニューラルネットワークにカウント(または量子化)制約を追加する簡単な方法を示しています。トレーニングセットで$n$サンプルを与えられた場合、$mn$サンプルの予測が実際の値(ラベル)よりも大きいことを保証します。
標準分位レグレッションネットワークとは異なり、提案手法は任意の損失関数に適用できるが、標準分位レグレッション損失は必ずしも適用できず、平均絶対差を最小化することができる。
論文 参考訳(メタデータ) (2020-12-28T16:37:02Z) - Regularizing Class-wise Predictions via Self-knowledge Distillation [80.76254453115766]
類似サンプル間の予測分布を解析する新しい正規化法を提案する。
これにより、単一のネットワークの暗黒知識(すなわち誤った予測に関する知識)を規則化する。
画像分類タスクにおける実験結果から, 単純だが強力な手法が一般化能力を大幅に向上することを示した。
論文 参考訳(メタデータ) (2020-03-31T06:03:51Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。