論文の概要: Mitigating deep double descent by concatenating inputs
- arxiv url: http://arxiv.org/abs/2107.00797v1
- Date: Fri, 2 Jul 2021 02:06:44 GMT
- ステータス: 処理完了
- システム内更新日: 2021-07-05 12:48:07.156531
- Title: Mitigating deep double descent by concatenating inputs
- Title(参考訳): 入力の連結による深い二重降下の緩和
- Authors: John Chen, Qihan Wang, Anastasios Kyrillidis
- Abstract要約: 二重降下曲線は、ディープニューラルネットワークの最も興味深い特性の1つである。
古典的バイアス分散曲線と現代のニューラルネットワークの振舞いとは対照的である。
本稿では,サンプル数を人工的に増やすことにより,既存のデータセットを増強する構造を提案する。
- 参考スコア(独自算出の注目度): 14.618325490983052
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The double descent curve is one of the most intriguing properties of deep
neural networks. It contrasts the classical bias-variance curve with the
behavior of modern neural networks, occurring where the number of samples nears
the number of parameters. In this work, we explore the connection between the
double descent phenomena and the number of samples in the deep neural network
setting. In particular, we propose a construction which augments the existing
dataset by artificially increasing the number of samples. This construction
empirically mitigates the double descent curve in this setting. We reproduce
existing work on deep double descent, and observe a smooth descent into the
overparameterized region for our construction. This occurs both with respect to
the model size, and with respect to the number epochs.
- Abstract(参考訳): 二重降下曲線はディープニューラルネットワークの最も興味深い特性の1つである。
これは、古典的なバイアス分散曲線と現代のニューラルネットワークの振る舞いとを対比し、サンプル数がパラメータの数に近づくところで発生する。
本研究では,深部ニューラルネットワーク設定における二重降下現象とサンプル数との関係について検討する。
特に,サンプル数を人工的に増やすことで既存のデータセットを増強する構造を提案する。
この構成は経験的にこの設定の二重降下曲線を緩和する。
我々は, 深層2次降下に関する既存の研究を再現し, 過パラメータ領域への滑らかな降下を観測した。
これは、モデルサイズ、および数字のエポックに関しても起こる。
関連論文リスト
- Generative Kaleidoscopic Networks [2.321684718906739]
我々は、このニューラルネットワークの特性を利用して、ジェネレーティブ・カレイドスコープと呼ばれるデータセット・カレイドスコープを設計する。
我々は、CNN、Transformers、U-Netsといった他のディープラーニングアーキテクチャに対して、この現象を様々な程度に観測した。
論文 参考訳(メタデータ) (2024-02-19T02:48:40Z) - A U-turn on Double Descent: Rethinking Parameter Counting in Statistical
Learning [68.76846801719095]
二重降下がいつどこで起こるのかを正確に示し、その位置が本質的に閾値 p=n に結び付けられていないことを示す。
これは二重降下と統計的直観の間の緊張を解消する。
論文 参考訳(メタデータ) (2023-10-29T12:05:39Z) - Depth Degeneracy in Neural Networks: Vanishing Angles in Fully Connected ReLU Networks on Initialization [5.678271181959529]
層数の関数としてReLUニューラルネットワークへの2つの入力間の角度の進化について検討する。
モンテカルロ実験を用いて理論的結果を検証し, 有限ネットワークの挙動を正確に近似することを示した。
また,深度縮退現象が実際のネットワークのトレーニングに悪影響を及ぼすかを実証的に検討した。
論文 参考訳(メタデータ) (2023-02-20T01:30:27Z) - A singular Riemannian geometry approach to Deep Neural Networks II.
Reconstruction of 1-D equivalence classes [78.120734120667]
入力空間における出力多様体内の点の事前像を構築する。
我々は、n-次元実空間から(n-1)-次元実空間へのニューラルネットワークマップの場合の簡易性に焦点をあてる。
論文 参考訳(メタデータ) (2021-12-17T11:47:45Z) - Multi-scale Feature Learning Dynamics: Insights for Double Descent [71.91871020059857]
一般化誤差の「二重降下」現象について検討する。
二重降下は、異なるスケールで学習される異なる特徴に起因する可能性がある。
論文 参考訳(メタデータ) (2021-12-06T18:17:08Z) - Optimization-Based Separations for Neural Networks [57.875347246373956]
本研究では,2層のシグモダルアクティベーションを持つディープ2ニューラルネットワークを用いて,ボールインジケータ関数を効率よく学習できることを示す。
これは最適化に基づく最初の分離結果であり、より強力なアーキテクチャの近似の利点は、実際に確実に現れる。
論文 参考訳(メタデータ) (2021-12-04T18:07:47Z) - Towards an Understanding of Benign Overfitting in Neural Networks [104.2956323934544]
現代の機械学習モデルは、しばしば膨大な数のパラメータを使用し、通常、トレーニング損失がゼロになるように最適化されている。
ニューラルネットワークの2層構成において、これらの良質な過適合現象がどのように起こるかを検討する。
本稿では,2層型ReLUネットワーク補間器を極小最適学習率で実現可能であることを示す。
論文 参考訳(メタデータ) (2021-06-06T19:08:53Z) - A Bayesian Perspective on Training Speed and Model Selection [51.15664724311443]
モデルのトレーニング速度の測定値を用いて,その限界確率を推定できることを示す。
線形モデルと深部ニューラルネットワークの無限幅限界に対するモデル選択タスクの結果を検証する。
以上の結果から、勾配勾配勾配で訓練されたニューラルネットワークが、一般化する関数に偏りがある理由を説明するための、有望な新たな方向性が示唆された。
論文 参考訳(メタデータ) (2020-10-27T17:56:14Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。