論文の概要: Theory of Deep Convolutional Neural Networks II: Spherical Analysis
- arxiv url: http://arxiv.org/abs/2007.14285v1
- Date: Tue, 28 Jul 2020 14:54:30 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-06 01:51:41.929542
- Title: Theory of Deep Convolutional Neural Networks II: Spherical Analysis
- Title(参考訳): 深部畳み込みニューラルネットワークの理論II:球面解析
- Authors: Zhiying Fang, Han Feng, Shuo Huang, Ding-Xuan Zhou
- Abstract要約: 単位球面$mathbbSd-1$ of $mathbbRd$ 上の近似関数に適用された深部畳み込みニューラルネットワークの族を考える。
我々の解析は、近似関数がソボレフ空間 $Wr_infty (mathbbSd-1)$ に$r>0$ あるいは加法リッジ形式を取るとき、一様近似の速度を示す。
- 参考スコア(独自算出の注目度): 9.099589602551573
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Deep learning based on deep neural networks of various structures and
architectures has been powerful in many practical applications, but it lacks
enough theoretical verifications. In this paper, we consider a family of deep
convolutional neural networks applied to approximate functions on the unit
sphere $\mathbb{S}^{d-1}$ of $\mathbb{R}^d$. Our analysis presents rates of
uniform approximation when the approximated function lies in the Sobolev space
$W^r_\infty (\mathbb{S}^{d-1})$ with $r>0$ or takes an additive ridge form. Our
work verifies theoretically the modelling and approximation ability of deep
convolutional neural networks followed by downsampling and one fully connected
layer or two. The key idea of our spherical analysis is to use the inner
product form of the reproducing kernels of the spaces of spherical harmonics
and then to apply convolutional factorizations of filters to realize the
generated linear features.
- Abstract(参考訳): 様々な構造とアーキテクチャのディープニューラルネットワークに基づくディープラーニングは、多くの実践的応用において強力だが、十分な理論的検証がない。
本稿では、単位球面上の近似関数に応用された深部畳み込みニューラルネットワークの族を$\mathbb{S}^{d-1}$ of $\mathbb{R}^d$とする。
解析により、近似関数がソボレフ空間 $W^r_\infty (\mathbb{S}^{d-1})$ に$r>0$ あるいは加法リッジ形式を取るとき、一様近似の速度を示す。
我々の研究は、ディープ畳み込みニューラルネットワークのモデリングと近似能力を理論的に検証し、次いでダウンサンプリングと1層または2層を完全連結した。
球面解析の鍵となる考え方は、球面調和の空間の再生核の内部積形式を用いて、生成された線形特徴を実現するためにフィルタの畳み込み分解を適用することである。
関連論文リスト
- Novel Kernel Models and Exact Representor Theory for Neural Networks Beyond the Over-Parameterized Regime [52.00917519626559]
本稿では、ニューラルネットワークの2つのモデルと、任意の幅、深さ、トポロジーのニューラルネットワークに適用可能なトレーニングについて述べる。
また、局所外在性神経核(LeNK)の観点から、非正規化勾配降下を伴う階層型ニューラルネットワークトレーニングのための正確な表現子理論を提示する。
この表現論は、ニューラルネットワークトレーニングにおける高次統計学の役割と、ニューラルネットワークのカーネルモデルにおけるカーネル進化の影響について洞察を与える。
論文 参考訳(メタデータ) (2024-05-24T06:30:36Z) - Wide Neural Networks as Gaussian Processes: Lessons from Deep
Equilibrium Models [16.07760622196666]
本研究では,層間における共有重み行列を持つ無限深度ニューラルネットワークであるDeep equilibrium Model (DEQ)について検討する。
解析により,DEC層の幅が無限大に近づくにつれ,ガウス過程に収束することが明らかとなった。
注目すべきは、この収束は深さと幅の限界が交換されても成り立つことである。
論文 参考訳(メタデータ) (2023-10-16T19:00:43Z) - Gradient Descent in Neural Networks as Sequential Learning in RKBS [63.011641517977644]
初期重みの有限近傍にニューラルネットワークの正確な電力系列表現を構築する。
幅にかかわらず、勾配降下によって生成されたトレーニングシーケンスは、正規化された逐次学習によって正確に複製可能であることを証明した。
論文 参考訳(メタデータ) (2023-02-01T03:18:07Z) - Optimization-Based Separations for Neural Networks [57.875347246373956]
本研究では,2層のシグモダルアクティベーションを持つディープ2ニューラルネットワークを用いて,ボールインジケータ関数を効率よく学習できることを示す。
これは最適化に基づく最初の分離結果であり、より強力なアーキテクチャの近似の利点は、実際に確実に現れる。
論文 参考訳(メタデータ) (2021-12-04T18:07:47Z) - Understanding Layer-wise Contributions in Deep Neural Networks through
Spectral Analysis [6.0158981171030685]
本稿では,ディープニューラルネットワークの層次スペクトルバイアスを解析し,対象関数に対する誤差の低減における異なる層の寄与と関係付ける。
我々は、ディープニューラルネットワークのための高次元データセットにおいて、我々の理論を検証する実験結果を提供する。
論文 参考訳(メタデータ) (2021-11-06T22:49:46Z) - The Separation Capacity of Random Neural Networks [78.25060223808936]
標準ガウス重みと一様分布バイアスを持つ十分に大きな2層ReLUネットワークは、この問題を高い確率で解くことができることを示す。
我々は、相互複雑性という新しい概念の観点から、データの関連構造を定量化する。
論文 参考訳(メタデータ) (2021-07-31T10:25:26Z) - Theory of Deep Convolutional Neural Networks III: Approximating Radial
Functions [7.943024117353317]
我々は、2つの畳み込み層、ダウン演算子、完全に接続された層からなるディープニューラルネットワークのファミリーを考える。
ネットワーク構造は、畳み込み層の数と完全に連結された層の幅を決定する2つの構造パラメータに依存する。
論文 参考訳(メタデータ) (2021-07-02T08:22:12Z) - Deep neural network approximation of analytic functions [91.3755431537592]
ニューラルネットワークの空間に エントロピーバウンド 片方向の線形活性化関数を持つ
我々は、ペナル化深部ニューラルネットワーク推定器の予測誤差に対するオラクルの不等式を導出する。
論文 参考訳(メタデータ) (2021-04-05T18:02:04Z) - Large-width functional asymptotics for deep Gaussian neural networks [2.7561479348365734]
重みとバイアスが独立であり、ガウス分布に従って同一に分布する完全連結フィードフォワード深層ニューラルネットワークを考える。
この結果は、無限に広い深層ニューラルネットワークとプロセス間の相互作用に関する最近の理論的研究に寄与する。
論文 参考訳(メタデータ) (2021-02-20T10:14:37Z) - Deep Networks and the Multiple Manifold Problem [15.144495799445824]
マシンビジョンにおける応用をモデル化した二項分類タスクである多重多様体問題について検討し、深部完全連結ニューラルネットワークを用いて単位球面の2つの低次元部分多様体を分離する。
ネットワーク深さ$L$がデータの幾何的および統計的性質に対して大きい場合、ネットワーク幅は$L$で十分大きく成長することを示す。
本分析は,実際に動機付けられたモデル問題の文脈における奥行きと幅の具体的な利点を示す。
論文 参考訳(メタデータ) (2020-08-25T19:20:00Z) - Measuring Model Complexity of Neural Networks with Curve Activation
Functions [100.98319505253797]
本稿では,線形近似ニューラルネットワーク(LANN)を提案する。
ニューラルネットワークのトレーニングプロセスを実験的に検討し、オーバーフィッティングを検出する。
我々は、$L1$と$L2$正規化がモデルの複雑さの増加を抑制することを発見した。
論文 参考訳(メタデータ) (2020-06-16T07:38:06Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。