論文の概要: Training Thinner and Deeper Neural Networks: Jumpstart Regularization
- arxiv url: http://arxiv.org/abs/2201.12795v1
- Date: Sun, 30 Jan 2022 12:11:24 GMT
- ステータス: 処理完了
- システム内更新日: 2022-02-01 18:25:57.304839
- Title: Training Thinner and Deeper Neural Networks: Jumpstart Regularization
- Title(参考訳): より薄くより深いニューラルネットワークのトレーニング:jumpstart正規化
- Authors: Carles Riera and Camilo Rey and Thiago Serra and Eloi Puertas and
Oriol Pujol
- Abstract要約: 我々は、神経細胞が死滅したり線状になるのを防ぐために正規化を使用します。
従来のトレーニングと比較して、より薄く、より深く、そして(最も重要な)よりパラメータ効率の高いニューラルネットワークが得られます。
- 参考スコア(独自算出の注目度): 2.8348950186890467
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Neural networks are more expressive when they have multiple layers. In turn,
conventional training methods are only successful if the depth does not lead to
numerical issues such as exploding or vanishing gradients, which occur less
frequently when the layers are sufficiently wide. However, increasing width to
attain greater depth entails the use of heavier computational resources and
leads to overparameterized models. These subsequent issues have been partially
addressed by model compression methods such as quantization and pruning, some
of which relying on normalization-based regularization of the loss function to
make the effect of most parameters negligible. In this work, we propose instead
to use regularization for preventing neurons from dying or becoming linear, a
technique which we denote as jumpstart regularization. In comparison to
conventional training, we obtain neural networks that are thinner, deeper, and
- most importantly - more parameter-efficient.
- Abstract(参考訳): 複数の層を持つ場合、ニューラルネットワークはより表現力が高い。
従来の訓練手法は, 層が十分に広い場合, 爆発や消失などの数値的な問題が発生しない場合にのみ, 従来の訓練手法が成功する。
しかし、より深い深度を達成するための幅の増大は、重い計算資源の使用を伴い、過パラメータ化モデルにつながる。
これらの問題は量子化やプルーニングなどのモデル圧縮手法によって部分的に解決され、その一部は損失関数の正規化に基づく正規化に依存してほとんどのパラメータの効果を無視できる。
そこで本研究では、ニューロンが死滅したり直線になったりするのを防ぐために正規化(jumpstart regularization)を使う方法を提案する。
従来のトレーニングと比較して、より薄く、より深く、そして最も重要なのはパラメータ効率のよいニューラルネットワークを得る。
関連論文リスト
- Self-Expanding Neural Networks [24.812671965904727]
ニューラルネットワークの幅と深さの両方を直感的に拡張する自然な勾配に基づくアプローチを導入する。
我々は、ニューロンが加算されるレート'の上限を証明し、拡張スコアに計算的に安価で低いバウンドを証明した。
分類問題と回帰問題の両方において、完全な接続性と畳み込みを備えた自己拡張ニューラルネットワークの利点について説明する。
論文 参考訳(メタデータ) (2023-07-10T12:49:59Z) - Globally Optimal Training of Neural Networks with Threshold Activation
Functions [63.03759813952481]
しきい値アクティベートを伴うディープニューラルネットワークの重み劣化正規化学習問題について検討した。
ネットワークの特定の層でデータセットを破砕できる場合に、簡易な凸最適化の定式化を導出する。
論文 参考訳(メタデータ) (2023-03-06T18:59:13Z) - Slimmable Networks for Contrastive Self-supervised Learning [69.9454691873866]
自己教師付き学習は、大規模なモデルを事前訓練する上で大きな進歩を遂げるが、小さなモデルでは苦労する。
追加の教師を必要とせず、訓練済みの小型モデルを得るための1段階のソリューションも導入する。
スリム化可能なネットワークは、完全なネットワークと、様々なネットワークを得るために一度にトレーニングできるいくつかの重み共有サブネットワークから構成される。
論文 参考訳(メタデータ) (2022-09-30T15:15:05Z) - Regularization-based Pruning of Irrelevant Weights in Deep Neural
Architectures [0.0]
本稿では,無関係な重みを識別し,そのノルムを選択的に縮小する正規化手法を用いて,スパース神経トポロジを学習する手法を提案する。
提案手法を画像分類と自然言語生成のタスクで検証し,スパーシティとメトリクスの両面から比較結果を得た。
論文 参考訳(メタデータ) (2022-04-11T09:44:16Z) - Improvements to Gradient Descent Methods for Quantum Tensor Network
Machine Learning [0.0]
任意のテンソルネットワークの初期化に成功したコピーノード方式を提案する。
本稿では、量子インスパイアされたテンソルネットワークモデルを生成する手法の組み合わせを示す数値的な結果を示す。
論文 参考訳(メタデータ) (2022-03-03T19:00:40Z) - Subquadratic Overparameterization for Shallow Neural Networks [60.721751363271146]
私たちは、標準的なニューラルトレーニング戦略を採用することができる分析フレームワークを提供しています。
我々は、Desiderata viaak-Lojasiewicz, smoothness, and standard assumptionsを達成する。
論文 参考訳(メタデータ) (2021-11-02T20:24:01Z) - Dynamic Neural Diversification: Path to Computationally Sustainable
Neural Networks [68.8204255655161]
訓練可能なパラメータが制限された小さなニューラルネットワークは、多くの単純なタスクに対してリソース効率の高い候補となる。
学習過程において隠れた層内のニューロンの多様性を探索する。
ニューロンの多様性がモデルの予測にどのように影響するかを分析する。
論文 参考訳(メタデータ) (2021-09-20T15:12:16Z) - Filter Pre-Pruning for Improved Fine-tuning of Quantized Deep Neural
Networks [0.0]
本稿では,DNNの微調整を妨害するフィルタを除去するPruning for Quantization (PfQ)と呼ばれる新しいプルーニング手法を提案する。
良く知られたモデルとデータセットを用いた実験により,提案手法が類似したモデルサイズで高い性能を実現することを確認した。
論文 参考訳(メタデータ) (2020-11-13T04:12:54Z) - Optimization Theory for ReLU Neural Networks Trained with Normalization
Layers [82.61117235807606]
ディープニューラルネットワークの成功は、部分的には正規化レイヤの使用によるものだ。
我々の分析は、正規化の導入がランドスケープをどのように変化させ、より高速なアクティベーションを実現するかを示している。
論文 参考訳(メタデータ) (2020-06-11T23:55:54Z) - Beyond Dropout: Feature Map Distortion to Regularize Deep Neural
Networks [107.77595511218429]
本稿では,ディープニューラルネットワークの中間層に関連する実験的なRademacher複雑性について検討する。
上記の問題に対処するための特徴歪み法(Disout)を提案する。
より高い試験性能を有するディープニューラルネットワークを作製するための特徴写像歪みの優位性を解析し、実証した。
論文 参考訳(メタデータ) (2020-02-23T13:59:13Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。