論文の概要: ChebNet: Efficient and Stable Constructions of Deep Neural Networks with
Rectified Power Units via Chebyshev Approximations
- arxiv url: http://arxiv.org/abs/1911.05467v3
- Date: Fri, 1 Dec 2023 08:37:27 GMT
- ステータス: 処理完了
- システム内更新日: 2023-12-04 19:27:18.831685
- Title: ChebNet: Efficient and Stable Constructions of Deep Neural Networks with
Rectified Power Units via Chebyshev Approximations
- Title(参考訳): ChebNet: Chebyshev近似による強化電力ユニットを用いたディープニューラルネットワークの効率的かつ安定した構成
- Authors: Shanshan Tang and Bo Li and Haijun Yu
- Abstract要約: 本稿では,Chebyshev近似に基づくRePUディープニューラルネットワークの構築方法を提案する。
ChebNetsによるスムーズな関数の近似は、電力系列アプローチを用いた深部RePUネットの近似よりも悪くはない。
- 参考スコア(独自算出の注目度): 6.0889567811100385
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: In a previous study [B. Li, S. Tang and H. Yu, Commun. Comput. Phy.
27(2):379-411, 2020], it is shown that deep neural networks built with
rectified power units (RePU) as activation functions can give better
approximation for sufficient smooth functions than those built with rectified
linear units, by converting polynomial approximations using power series into
deep neural networks with optimal complexity and no approximation error.
However, in practice, power series approximations are not easy to obtain due to
the associated stability issue. In this paper, we propose a new and more stable
way to construct RePU deep neural networks based on Chebyshev polynomial
approximations. By using a hierarchical structure of Chebyshev polynomial
approximation in frequency domain, we obtain efficient and stable deep neural
network construction, which we call ChebNet. The approximation of smooth
functions by ChebNets is no worse than the approximation by deep RePU nets
using power series. On the same time, ChebNets are much more stable. Numerical
results show that the constructed ChebNets can be further fine-tuned to obtain
much better results than those obtained by tuning deep RePU nets constructed by
power series approach. As spectral accuracy is hard to obtain by direct
training of deep neural networks, ChebNets provide a practical way to obtain
spectral accuracy, it is expected to be useful in real applications that
require efficient approximations of smooth functions.
- Abstract(参考訳): 従来の研究 (B. Li, S. Tang, H. Yu, comun. Phy. 27(2):379-411, 2020] において、活性化関数として整流電力ユニット(RePU)で構築されたディープニューラルネットワークは、整流線形ユニットで構築されたものよりも十分な滑らかな関数を近似し、電力系列を用いた多項式近似を最適に複雑で近似誤差のないディープニューラルネットワークに変換できることが示されている。
しかし、実際には、関連する安定性の問題のため、電力系列近似は容易には得られない。
本稿では,chebyshev多項式近似に基づくrepu深層ニューラルネットワークの構築法を提案する。
周波数領域におけるチェビシェフ多項式近似の階層構造を用いて、ChebNetと呼ばれる効率的で安定したディープニューラルネットワーク構築を得る。
ChebNetsによるスムーズな関数の近似は、電力系列を用いた深部RePUネットの近似よりも悪くはない。
それと同時に、ChebNetsはずっと安定している。
数値計算の結果,構成したChebNetは,電力系列による深部RePUネットのチューニングにより得られるものよりもはるかに優れた結果が得られることがわかった。
ディープニューラルネットワークの直接トレーニングによってスペクトル精度を得るのは難しいため、ChebNetsはスペクトル精度を得るための実用的な方法を提供しており、スムーズな関数の効率的な近似を必要とする実アプリケーションで有用であることが期待されている。
関連論文リスト
- Approximation with Random Shallow ReLU Networks with Applications to Model Reference Adaptive Control [0.0]
ランダムに生成される重みとバイアスを持つReLUネットワークは、高い確率で$O(m-1/2)$の誤りを生じることを示す。
本稿では,モデル参照適応制御アプリケーションにおいて,必要な精度を近似するために,その結果をどのように利用できるかを示す。
論文 参考訳(メタデータ) (2024-03-25T19:39:17Z) - Bayesian Inference Accelerator for Spiking Neural Networks [3.145754107337963]
スパイキングニューラルネットワーク(SNN)は、計算面積と電力を減らす可能性がある。
本研究では,効率的なベイズSNNをハードウェア上で開発・実装するための最適化フレームワークについて述べる。
我々は、完全精度のベルヌーイパラメータを持つベイジアンバイナリネットワークに匹敵するアキュラ級数を示し、最大25時間分のスパイクを減らした。
論文 参考訳(メタデータ) (2024-01-27T16:27:19Z) - A Generalization of Continuous Relaxation in Structured Pruning [0.3277163122167434]
トレンドは、パラメータが増加するより深い、より大きなニューラルネットワークが、より小さなニューラルネットワークよりも高い精度を達成することを示している。
ネットワーク拡張, プルーニング, サブネットワーク崩壊, 削除のためのアルゴリズムを用いて, 構造化プルーニングを一般化する。
結果のCNNは計算コストのかかるスパース行列演算を使わずにGPUハードウェア上で効率的に実行される。
論文 参考訳(メタデータ) (2023-08-28T14:19:13Z) - Provable Data Subset Selection For Efficient Neural Network Training [73.34254513162898]
本稿では,任意の放射基底関数ネットワーク上での入力データの損失を近似する,emphRBFNNのコアセットを構成するアルゴリズムについて紹介する。
次に、一般的なネットワークアーキテクチャやデータセット上で、関数近似とデータセットサブセットの選択に関する経験的評価を行う。
論文 参考訳(メタデータ) (2023-03-09T10:08:34Z) - Robust Training and Verification of Implicit Neural Networks: A
Non-Euclidean Contractive Approach [64.23331120621118]
本稿では,暗黙的ニューラルネットワークのトレーニングとロバスト性検証のための理論的および計算的枠組みを提案する。
組込みネットワークを導入し、組込みネットワークを用いて、元のネットワークの到達可能な集合の超近似として$ell_infty$-normボックスを提供することを示す。
MNISTデータセット上で暗黙的なニューラルネットワークをトレーニングするためにアルゴリズムを適用し、我々のモデルの堅牢性と、文献における既存のアプローチを通じてトレーニングされたモデルを比較する。
論文 参考訳(メタデータ) (2022-08-08T03:13:24Z) - Benefits of Overparameterized Convolutional Residual Networks: Function
Approximation under Smoothness Constraint [48.25573695787407]
大規模なConvResNetは関数の値から目的関数を近似できるだけでなく、一階スムーズ性も十分に発揮できることを示す。
我々の理論は、実際にディープ・ワイド・ネットワークを使うことの利点を部分的に正当化している。
論文 参考訳(メタデータ) (2022-06-09T15:35:22Z) - Comparative Analysis of Interval Reachability for Robust Implicit and
Feedforward Neural Networks [64.23331120621118]
我々は、暗黙的ニューラルネットワーク(INN)の堅牢性を保証するために、区間到達可能性分析を用いる。
INNは暗黙の方程式をレイヤとして使用する暗黙の学習モデルのクラスである。
提案手法は, INNに最先端の区間境界伝搬法を適用するよりも, 少なくとも, 一般的には, 有効であることを示す。
論文 参考訳(メタデータ) (2022-04-01T03:31:27Z) - Lipschitz constant estimation of Neural Networks via sparse polynomial
optimization [47.596834444042685]
LiPoptは、ニューラルネットワークのリプシッツ定数上のより厳密な上限を計算するためのフレームワークである。
ネットワークの疎結合性を利用して、ネットワークの複雑さを大幅に軽減する方法を示す。
ランダムな重みを持つネットワークと、MNISTで訓練されたネットワークで実験を行う。
論文 参考訳(メタデータ) (2020-04-18T18:55:02Z) - Network Adjustment: Channel Search Guided by FLOPs Utilization Ratio [101.84651388520584]
本稿では,ネットワークの精度をFLOPの関数として考慮した,ネットワーク調整という新しいフレームワークを提案する。
標準画像分類データセットと幅広いベースネットワークの実験は、我々のアプローチの有効性を実証している。
論文 参考訳(メタデータ) (2020-04-06T15:51:00Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。