論文の概要: Neural Characteristic Activation Value Analysis for Improved ReLU
Network Feature Learning
- arxiv url: http://arxiv.org/abs/2305.15912v3
- Date: Fri, 29 Sep 2023 17:13:36 GMT
- ステータス: 処理完了
- システム内更新日: 2023-10-02 18:35:09.862230
- Title: Neural Characteristic Activation Value Analysis for Improved ReLU
Network Feature Learning
- Title(参考訳): 改良されたreluネットワーク特徴学習のための神経特性アクティベーション値解析
- Authors: Wenlin Chen, Hong Ge
- Abstract要約: 本研究では、ニューラルネットワークにおける個々のReLUユニットの特性活性化値について検討する。
本稿では、そのような特性活性化値に対応する入力位置の集合を、ReLUユニットの特性活性化セットとして参照する。
- 参考スコア(独自算出の注目度): 2.6832500767373735
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: This work examines the characteristic activation values of individual ReLU
units in neural networks. We refer to the set of input locations corresponding
to such characteristic activation values as the characteristic activation set
of a ReLU unit. We draw an explicit connection between the characteristic
activation set and learned features in ReLU networks. This connection leads to
new insights into how various neural network normalization techniques used in
modern deep learning architectures regularize and stabilize stochastic gradient
optimization. Utilizing these insights, we propose geometric parameterization
for ReLU networks to improve feature learning, which decouples the radial and
angular parameters in the hyperspherical coordinate system. We empirically
verify its usefulness with less carefully chosen initialization schemes and
larger learning rates. We report significant improvements in optimization
stability, convergence speed, and generalization performance for various models
on a variety of datasets, including the ResNet-50 network on ImageNet.
- Abstract(参考訳): 本研究では、ニューラルネットワークにおける個々のReLUユニットの特性活性化値について検討する。
このような特性活性化値に対応する入力位置のセットを、reluユニットの特性活性化セットとして参照する。
特徴アクティベーションセットとReLUネットワークにおける学習特徴との間に明確な関係を描いている。
この接続は、現代のディープラーニングアーキテクチャで使用される様々なニューラルネットワーク正規化技術が、確率的勾配最適化を規則化し安定化する方法に関する新たな洞察をもたらす。
これらの知見を利用して,超球面座標系における半径パラメータと角パラメータを分離する特徴学習を改善するために,ReLUネットワークの幾何パラメータ化を提案する。
より注意深く選択された初期化スキームとより大きな学習率でその有用性を検証する。
本稿では,ImageNet上のResNet-50ネットワークを含む各種データセット上での最適化安定性,収束速度,一般化性能の大幅な改善について報告する。
関連論文リスト
- On the Convergence Analysis of Over-Parameterized Variational Autoencoders: A Neural Tangent Kernel Perspective [7.580900499231056]
変分自動エンコーダ(VAE)は、生成タスクの強力な確率モデルとして登場した。
本稿では, 軽微な仮定の下でのVAEの数学的証明について述べる。
また、過剰に最適化されたSNNが直面する最適化問題と、カーネルリッジ(KRR)問題との新たな接続を確立する。
論文 参考訳(メタデータ) (2024-09-09T06:10:31Z) - The Empirical Impact of Neural Parameter Symmetries, or Lack Thereof [50.49582712378289]
ニューラル・ネットワーク・アーキテクチャの導入により,ニューラル・パラメータ・対称性の影響について検討する。
我々は,パラメータ空間対称性を低減するために,標準的なニューラルネットワークを改良する2つの手法を開発した。
実験により,パラメータ対称性の経験的影響に関する興味深い観察がいくつか示された。
論文 参考訳(メタデータ) (2024-05-30T16:32:31Z) - Neural Parameter Regression for Explicit Representations of PDE Solution Operators [22.355460388065964]
偏微分方程式(PDE)の解演算子を学習するための新しいフレームワークであるニューラル回帰(NPR)を導入する。
NPRは、ニューラルネットワーク(NN)パラメータを回帰するために、Physics-Informed Neural Network (PINN, Raissi et al., 2021) 技術を使用している。
このフレームワークは、新しい初期条件と境界条件に顕著な適応性を示し、高速な微調整と推論を可能にした。
論文 参考訳(メタデータ) (2024-03-19T14:30:56Z) - Hallmarks of Optimization Trajectories in Neural Networks: Directional Exploration and Redundancy [75.15685966213832]
最適化トラジェクトリのリッチな方向構造をポイントワイズパラメータで解析する。
トレーニング中のスカラーバッチノルムパラメータは,ネットワーク全体のトレーニング性能と一致していることを示す。
論文 参考訳(メタデータ) (2024-03-12T07:32:47Z) - Stability and Generalization Analysis of Gradient Methods for Shallow
Neural Networks [59.142826407441106]
本稿では,アルゴリズム安定性の概念を活用して,浅層ニューラルネットワーク(SNN)の一般化挙動について検討する。
我々は、SNNを訓練するために勾配降下(GD)と勾配降下(SGD)を考慮する。
論文 参考訳(メタデータ) (2022-09-19T18:48:00Z) - Orthogonal Stochastic Configuration Networks with Adaptive Construction
Parameter for Data Analytics [6.940097162264939]
ランダム性により、SCNは冗長で品質の低い近似線形相関ノードを生成する可能性が高まる。
機械学習の基本原理、すなわち、パラメータが少ないモデルでは、一般化が向上する。
本稿では,ネットワーク構造低減のために,低品質な隠れノードをフィルタする直交SCN(OSCN)を提案する。
論文 参考訳(メタデータ) (2022-05-26T07:07:26Z) - Improving Parametric Neural Networks for High-Energy Physics (and
Beyond) [0.0]
本研究の目的は,現実世界の使用状況に照らして,パラメトリックニューラルネットワーク(pNN)ネットワークの理解を深めることである。
本稿では,新しいパラメータ化ニューラルネットワークアーキテクチャであるAffinePNNを提案する。
我々は、その不均衡バージョン(HEPMASS-IMB)に沿って、HEPMASSデータセット上で、我々のモデルを広範囲に評価する。
論文 参考訳(メタデータ) (2022-02-01T14:18:43Z) - Fractal Structure and Generalization Properties of Stochastic
Optimization Algorithms [71.62575565990502]
最適化アルゴリズムの一般化誤差は、その一般化尺度の根底にあるフラクタル構造の複雑性'にバウンドできることを示す。
さらに、特定の問題(リニア/ロジスティックレグレッション、隠れ/層ニューラルネットワークなど)とアルゴリズムに対して、結果をさらに専門化します。
論文 参考訳(メタデータ) (2021-06-09T08:05:36Z) - Provably Efficient Neural Estimation of Structural Equation Model: An
Adversarial Approach [144.21892195917758]
一般化構造方程式モデル(SEM)のクラスにおける推定について検討する。
線形作用素方程式をmin-maxゲームとして定式化し、ニューラルネットワーク(NN)でパラメータ化し、勾配勾配を用いてニューラルネットワークのパラメータを学習する。
提案手法は,サンプル分割を必要とせず,確固とした収束性を持つNNをベースとしたSEMの抽出可能な推定手順を初めて提供する。
論文 参考訳(メタデータ) (2020-07-02T17:55:47Z) - Neural Proximal/Trust Region Policy Optimization Attains Globally
Optimal Policy [119.12515258771302]
オーバーパラメトリゼーションを備えたPPOOの変種が,グローバルな最適ネットワークに収束することを示す。
我々の分析の鍵は、1次元の単調性の概念の下で無限勾配の反復であり、そこでは勾配はネットワークによって瞬く。
論文 参考訳(メタデータ) (2019-06-25T03:20:04Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。