論文の概要: Persistent Neurons
- arxiv url: http://arxiv.org/abs/2007.01419v2
- Date: Thu, 18 Mar 2021 09:16:24 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-14 12:50:29.891023
- Title: Persistent Neurons
- Title(参考訳): 持続性ニューロン
- Authors: Yimeng Min
- Abstract要約: 本稿では,学習課題を最適化するトラジェクトリベースの戦略を提案する。
永続ニューロンは、決定論的誤差項によって個々の更新が破損する勾配情報バイアスを持つ方法とみなすことができる。
完全かつ部分的なパーシステンスモデルの評価を行い、NN構造における性能向上に有効であることを示す。
- 参考スコア(独自算出の注目度): 4.061135251278187
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Neural networks (NN)-based learning algorithms are strongly affected by the
choices of initialization and data distribution. Different optimization
strategies have been proposed for improving the learning trajectory and finding
a better optima. However, designing improved optimization strategies is a
difficult task under the conventional landscape view. Here, we propose
persistent neurons, a trajectory-based strategy that optimizes the learning
task using information from previous converged solutions. More precisely, we
utilize the end of trajectories and let the parameters explore new landscapes
by penalizing the model from converging to the previous solutions under the
same initialization. Persistent neurons can be regarded as a stochastic
gradient method with informed bias where individual updates are corrupted by
deterministic error terms. Specifically, we show that persistent neurons, under
certain data distribution, is able to converge to more optimal solutions while
initializations under popular framework find bad local minima. We further
demonstrate that persistent neurons helps improve the model's performance under
both good and poor initializations. We evaluate the full and partial persistent
model and show it can be used to boost the performance on a range of NN
structures, such as AlexNet and residual neural network (ResNet).
- Abstract(参考訳): ニューラルネットワーク(NN)ベースの学習アルゴリズムは、初期化とデータ分散の選択に強く影響を受ける。
学習軌跡を改善するための最適化手法が提案されている。
しかし,従来のランドスケープ・ビューでは,改良された最適化戦略の設計は難しい課題である。
そこで本研究では,従来の収束解の情報を用いて学習タスクを最適化する軌道ベース戦略である永続ニューロンを提案する。
より正確には、軌道の終端を利用して、同じ初期化の下でモデルが収束することから前の解へとペナルティ化することで、パラメータに新しい風景を探索させる。
永続ニューロンは、決定論的誤差項によって個々の更新が破損する情報バイアスを持つ確率勾配法とみなすことができる。
特に,特定のデータ分布下での持続的なニューロンは,より最適な解に収束するが,一般的なフレームワークでは局所的な極小さが認められない。
さらに, 持続性ニューロンは, 初期化と貧弱化の両方において, モデルの性能向上に寄与することを示した。
完全かつ部分的な永続モデルを評価し,AlexNetや残留ニューラルネットワーク(ResNet)など,NN構造の性能向上に有効であることを示す。
関連論文リスト
- Improving Generalization of Deep Neural Networks by Optimum Shifting [33.092571599896814]
本稿では,ニューラルネットワークのパラメータを最小値からフラット値に変化させる,近位シフトと呼ばれる新しい手法を提案する。
本手法は,ニューラルネットワークの入力と出力が固定された場合,ネットワーク内の行列乗算を,未決定線形方程式系として扱うことができることを示す。
論文 参考訳(メタデータ) (2024-05-23T02:31:55Z) - Regularized Gauss-Newton for Optimizing Overparameterized Neural Networks [2.0072624123275533]
一般化されたガウスニュートン(GGN)最適化法は、曲率推定を解法に組み込む。
本研究では、2層ニューラルネットワークを明示的な正規化で最適化するGGN法について検討する。
論文 参考訳(メタデータ) (2024-04-23T10:02:22Z) - Model-Based Control with Sparse Neural Dynamics [23.961218902837807]
モデル学習と予測制御を統合した新しいフレームワークを提案する。
我々は,既存の最先端手法よりもクローズドループ性能を向上できることを示す。
論文 参考訳(メタデータ) (2023-12-20T06:25:02Z) - Learning Large-scale Neural Fields via Context Pruned Meta-Learning [60.93679437452872]
本稿では,大規模ニューラルネットワーク学習のための最適化に基づくメタラーニング手法を提案する。
メタテスト時間における勾配再スケーリングは、非常に高品質なニューラルネットワークの学習を可能にすることを示す。
我々のフレームワークは、モデルに依存しない、直感的で、実装が容易であり、幅広い信号に対する大幅な再構成改善を示す。
論文 参考訳(メタデータ) (2023-02-01T17:32:16Z) - Towards Theoretically Inspired Neural Initialization Optimization [66.04735385415427]
我々は,ニューラルネットワークの初期状態を評価するための理論的知見を備えた,GradCosineという微分可能な量を提案する。
標準制約下でGradCosineを最大化することにより、ネットワークのトレーニングとテストの両方の性能を向上させることができることを示す。
サンプル分析から実際のバッチ設定に一般化されたNIOは、無視可能なコストで、より優れた初期化を自動で探すことができる。
論文 参考訳(メタデータ) (2022-10-12T06:49:16Z) - Learning to Learn with Generative Models of Neural Network Checkpoints [71.06722933442956]
ニューラルネットワークのチェックポイントのデータセットを構築し,パラメータの生成モデルをトレーニングする。
提案手法は,幅広い損失プロンプトに対するパラメータの生成に成功している。
我々は、教師付きおよび強化学習における異なるニューラルネットワークアーキテクチャとタスクに本手法を適用した。
論文 参考訳(メタデータ) (2022-09-26T17:59:58Z) - Acceleration techniques for optimization over trained neural network
ensembles [1.0323063834827415]
本研究では, 線形単位活性化の補正されたフィードフォワードニューラルネットワークを用いて, 目的関数をモデル化する最適化問題について検討する。
本稿では,1つのニューラルネットワークを最適化するために,既存のBig-M$の定式化をベースとした混合整数線形プログラムを提案する。
論文 参考訳(メタデータ) (2021-12-13T20:50:54Z) - Non-Gradient Manifold Neural Network [79.44066256794187]
ディープニューラルネットワーク(DNN)は通常、勾配降下による最適化に数千のイテレーションを要します。
非次最適化に基づく新しい多様体ニューラルネットワークを提案する。
論文 参考訳(メタデータ) (2021-06-15T06:39:13Z) - A Dynamical View on Optimization Algorithms of Overparameterized Neural
Networks [23.038631072178735]
我々は、一般的に使用される最適化アルゴリズムの幅広いクラスについて考察する。
その結果、ニューラルネットワークの収束挙動を利用することができる。
このアプローチは他の最適化アルゴリズムやネットワーク理論にも拡張できると考えています。
論文 参考訳(メタデータ) (2020-10-25T17:10:22Z) - Modeling from Features: a Mean-field Framework for Over-parameterized
Deep Neural Networks [54.27962244835622]
本稿では、オーバーパラメータ化ディープニューラルネットワーク(DNN)のための新しい平均場フレームワークを提案する。
このフレームワークでは、DNNは連続的な極限におけるその特徴に対する確率測度と関数によって表現される。
本稿では、標準DNNとResidual Network(Res-Net)アーキテクチャを通してフレームワークを説明する。
論文 参考訳(メタデータ) (2020-07-03T01:37:16Z) - MSE-Optimal Neural Network Initialization via Layer Fusion [68.72356718879428]
ディープニューラルネットワークは、さまざまな分類と推論タスクに対して最先端のパフォーマンスを達成する。
グラデーションと非進化性の組み合わせは、学習を新しい問題の影響を受けやすいものにする。
確率変数を用いて学習した深層ネットワークの近傍層を融合する手法を提案する。
論文 参考訳(メタデータ) (2020-01-28T18:25:15Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。