論文の概要: Analytical aspects of non-differentiable neural networks
- arxiv url: http://arxiv.org/abs/2011.01858v1
- Date: Tue, 3 Nov 2020 17:20:43 GMT
- ステータス: 処理完了
- システム内更新日: 2022-09-30 06:14:54.022007
- Title: Analytical aspects of non-differentiable neural networks
- Title(参考訳): 非微分型ニューラルネットワークの解析的側面
- Authors: Gian Paolo Leonardi and Matteo Spallanzani
- Abstract要約: 本稿では、量子化されたニューラルネットワークの表現性と、微分不可能なネットワークに対する近似手法について論じる。
ここでは,QNN が DNN と同じ表現性を持つことを示す。
また,Heaviside型アクティベーション関数を用いて定義されたネットワークについても検討し,スムーズなネットワークによるポイントワイズ近似の結果を証明した。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Research in computational deep learning has directed considerable efforts
towards hardware-oriented optimisations for deep neural networks, via the
simplification of the activation functions, or the quantization of both
activations and weights. The resulting non-differentiability (or even
discontinuity) of the networks poses some challenging problems, especially in
connection with the learning process. In this paper, we address several
questions regarding both the expressivity of quantized neural networks and
approximation techniques for non-differentiable networks. First, we answer in
the affirmative the question of whether QNNs have the same expressivity as DNNs
in terms of approximation of Lipschitz functions in the $L^{\infty}$ norm.
Then, considering a continuous but not necessarily differentiable network, we
describe a layer-wise stochastic regularisation technique to produce
differentiable approximations, and we show how this approach to regularisation
provides elegant quantitative estimates. Finally, we consider networks defined
by means of Heaviside-type activation functions, and prove for them a pointwise
approximation result by means of smooth networks under suitable assumptions on
the regularised activations.
- Abstract(参考訳): 計算深層学習の研究は、アクティベーション関数の単純化や、アクティベーションと重みの量子化を通じて、ディープニューラルネットワークのハードウェア指向の最適化に多大な努力を向けてきた。
結果として生じるネットワークの不連続性(あるいは不連続性)は、特に学習プロセスに関連して、いくつかの困難な問題を引き起こす。
本稿では,量子化ニューラルネットワークの表現率と非微分可能ネットワークの近似技術について,いくつかの疑問を提起する。
まず、QNN が DNN と同じ表現性を持つかどうかを、$L^{\infty}$ノルムにおけるリプシッツ函数の近似の点において肯定的に問う。
そこで, 連続的だが必ずしも微分可能ではないネットワークを考慮し, 階層的確率正規化手法を用いて微分可能近似を導出する手法について述べる。
最後に,ヘビーサイド型アクティベーション関数によって定義されるネットワークを考察し,正規化アクティベーションに対する適切な仮定の下での滑らかなネットワークによるポイントワイズ近似結果を示す。
関連論文リスト
- Coding schemes in neural networks learning classification tasks [52.22978725954347]
完全接続型広義ニューラルネットワーク学習タスクについて検討する。
ネットワークが強力なデータ依存機能を取得することを示す。
驚くべきことに、内部表現の性質は神経の非線形性に大きく依存する。
論文 参考訳(メタデータ) (2024-06-24T14:50:05Z) - GD doesn't make the cut: Three ways that non-differentiability affects neural network training [5.439020425819001]
本稿では,非微分可能関数(NGDM)に適用される手法と,微分可能関数に対する古典的勾配降下(GD)との区別を批判的に検討する。
我々の研究は、強い仮定に対する過度な信頼から生まれた、影響力のある文学におけるアルゴリズムの批判的な誤解を識別する。
論文 参考訳(メタデータ) (2024-01-16T15:11:29Z) - Globally Optimal Training of Neural Networks with Threshold Activation
Functions [63.03759813952481]
しきい値アクティベートを伴うディープニューラルネットワークの重み劣化正規化学習問題について検討した。
ネットワークの特定の層でデータセットを破砕できる場合に、簡易な凸最適化の定式化を導出する。
論文 参考訳(メタデータ) (2023-03-06T18:59:13Z) - Quantization-aware Interval Bound Propagation for Training Certifiably
Robust Quantized Neural Networks [58.195261590442406]
我々は、逆向きに頑健な量子化ニューラルネットワーク(QNN)の訓練と証明の課題について検討する。
近年の研究では、浮動小数点ニューラルネットワークが量子化後の敵攻撃に対して脆弱であることが示されている。
本稿では、堅牢なQNNをトレーニングするための新しい方法であるQA-IBP(quantization-aware interval bound propagation)を提案する。
論文 参考訳(メタデータ) (2022-11-29T13:32:38Z) - Simple initialization and parametrization of sinusoidal networks via
their kernel bandwidth [92.25666446274188]
従来の活性化機能を持つネットワークの代替として、活性化を伴う正弦波ニューラルネットワークが提案されている。
まず,このような正弦波ニューラルネットワークの簡易版を提案する。
次に、ニューラルタンジェントカーネルの観点からこれらのネットワークの挙動を分析し、そのカーネルが調整可能な帯域幅を持つ低域フィルタを近似することを実証する。
論文 参考訳(メタデータ) (2022-11-26T07:41:48Z) - On the Approximation and Complexity of Deep Neural Networks to Invariant
Functions [0.0]
深部ニューラルネットワークの不変関数への近似と複雑性について検討する。
様々なタイプのニューラルネットワークモデルにより、幅広い不変関数を近似できることを示す。
我々は,高分解能信号のパラメータ推定と予測を理論的結論と結びつけることが可能なアプリケーションを提案する。
論文 参考訳(メタデータ) (2022-10-27T09:19:19Z) - Approximation Power of Deep Neural Networks: an explanatory mathematical
survey [0.0]
本調査の目的は、ディープニューラルネットワークの近似特性の説明的レビューを行うことである。
我々は、ニューラルネットワークが他の古典的線形および非線形近似法より優れている理由と理由を理解することを目的としている。
論文 参考訳(メタデータ) (2022-07-19T18:47:44Z) - Comparative Analysis of Interval Reachability for Robust Implicit and
Feedforward Neural Networks [64.23331120621118]
我々は、暗黙的ニューラルネットワーク(INN)の堅牢性を保証するために、区間到達可能性分析を用いる。
INNは暗黙の方程式をレイヤとして使用する暗黙の学習モデルのクラスである。
提案手法は, INNに最先端の区間境界伝搬法を適用するよりも, 少なくとも, 一般的には, 有効であることを示す。
論文 参考訳(メタデータ) (2022-04-01T03:31:27Z) - An Overview of Uncertainty Quantification Methods for Infinite Neural
Networks [0.0]
無限幅ニューラルネットワークにおける不確実性を定量化する手法について検討する。
我々は、予測の不確実性に対する厳密な閉形式解を得るために、いくつかの等価結果を利用する。
論文 参考訳(メタデータ) (2022-01-13T00:03:22Z) - Training Integrable Parameterizations of Deep Neural Networks in the
Infinite-Width Limit [0.0]
大きな幅のダイナミクスは実世界のディープネットワークに関する実践的な洞察を導いてきた。
2層ニューラルネットワークでは、トレーニングされたモデルの性質が初期ランダムウェイトの大きさによって根本的に変化することが理解されている。
この自明な振る舞いを避けるための様々な手法を提案し、その結果のダイナミクスを詳細に分析する。
論文 参考訳(メタデータ) (2021-10-29T07:53:35Z) - Learning Connectivity of Neural Networks from a Topological Perspective [80.35103711638548]
本稿では,ネットワークを解析のための完全なグラフに表現するためのトポロジ的視点を提案する。
接続の規模を反映したエッジに学習可能なパラメータを割り当てることにより、学習プロセスを異なる方法で行うことができる。
この学習プロセスは既存のネットワークと互換性があり、より大きな検索空間と異なるタスクへの適応性を持っている。
論文 参考訳(メタデータ) (2020-08-19T04:53:31Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。