論文の概要: Spectral Complexity-scaled Generalization Bound of Complex-valued Neural
Networks
- arxiv url: http://arxiv.org/abs/2112.03467v1
- Date: Tue, 7 Dec 2021 03:25:25 GMT
- ステータス: 処理完了
- システム内更新日: 2021-12-08 13:13:42.479246
- Title: Spectral Complexity-scaled Generalization Bound of Complex-valued Neural
Networks
- Title(参考訳): 複素数値ニューラルネットワークのスペクトル複雑度スケール一般化境界
- Authors: Haowen Chen, Fengxiang He, Shiye Lei and Dacheng Tao
- Abstract要約: 本論文は,複素数値ニューラルネットワークの一般化を証明した最初の論文である。
複雑な値の畳み込みニューラルネットワークを異なるデータセット上でトレーニングして実験を行う。
- 参考スコア(独自算出の注目度): 78.64167379726163
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Complex-valued neural networks (CVNNs) have been widely applied to various
fields, especially signal processing and image recognition. However, few works
focus on the generalization of CVNNs, albeit it is vital to ensure the
performance of CVNNs on unseen data. This paper is the first work that proves a
generalization bound for the complex-valued neural network. The bound scales
with the spectral complexity, the dominant factor of which is the spectral norm
product of weight matrices. Further, our work provides a generalization bound
for CVNNs when training data is sequential, which is also affected by the
spectral complexity. Theoretically, these bounds are derived via Maurey
Sparsification Lemma and Dudley Entropy Integral. Empirically, we conduct
experiments by training complex-valued convolutional neural networks on
different datasets: MNIST, FashionMNIST, CIFAR-10, CIFAR-100, Tiny ImageNet,
and IMDB. Spearman's rank-order correlation coefficients and the corresponding
p values on these datasets give strong proof that the spectral complexity of
the network, measured by the weight matrices spectral norm product, has a
statistically significant correlation with the generalization ability.
- Abstract(参考訳): 複雑評価ニューラルネットワーク(CVNN)は様々な分野、特に信号処理や画像認識に広く応用されている。
しかし,CVNNの一般化に注目する研究はほとんどないが,未確認データ上でのCVNNの性能確保は不可欠である。
本稿では,複素数値ニューラルネットワークの一般化を証明した最初の論文である。
境界スケールはスペクトル複雑性を伴うが、その支配的な要素は重み行列のスペクトルノルム積である。
さらに,トレーニングデータが逐次的である場合のcvnnに対する一般化も提供し,スペクトル複雑性の影響も受けている。
理論的には、これらの境界は Maurey Sparsification Lemma と Dudley Entropy Integral によって導かれる。
実験では、MNIST、FashionMNIST、CIFAR-10、CIFAR-100、Tiny ImageNet、IMDBなど、さまざまなデータセット上で複雑な値の畳み込みニューラルネットワークをトレーニングして実験を行う。
スピアマンの階階相関係数とこれらのデータセット上の対応するp値は、重み行列スペクトルノルム積によって測定されたネットワークのスペクトル複雑性が一般化能力と統計的に有意な相関を持つという強い証明を与える。
関連論文リスト
- Spectral complexity of deep neural networks [2.099922236065961]
我々は,ネットワークアーキテクチャの複雑さを特徴付けるために,制限場の角パワースペクトルを用いる。
そこで我々は,ニューラルネットワークを低次,スパース,高次と分類する。
本稿では,この分類が標準アクティベーション関数の様々な特徴,特にReLUネットワークの空間特性を如何に強調するかを示す。
論文 参考訳(メタデータ) (2024-05-15T17:55:05Z) - On Generalization Bounds for Deep Compound Gaussian Neural Networks [1.4425878137951238]
Unrolled Deep Neural Network(DNN)は、標準的なDNNよりも優れた解釈性と優れた経験的パフォーマンスを提供する。
本稿では,複合ガウス事前情報に基づく非学習型DNNのクラスに対する新しい一般化誤差境界を開発する。
現実的な条件下では、最悪の場合、一般化誤差は信号次元で$mathcalO(nsqrt(n))$、ネットワークサイズで$mathcalO(($Network Size$)3/2)$である。
論文 参考訳(メタデータ) (2024-02-20T16:01:39Z) - Wide Neural Networks as Gaussian Processes: Lessons from Deep
Equilibrium Models [16.07760622196666]
本研究では,層間における共有重み行列を持つ無限深度ニューラルネットワークであるDeep equilibrium Model (DEQ)について検討する。
解析により,DEC層の幅が無限大に近づくにつれ,ガウス過程に収束することが明らかとなった。
注目すべきは、この収束は深さと幅の限界が交換されても成り立つことである。
論文 参考訳(メタデータ) (2023-10-16T19:00:43Z) - Neural Networks with Sparse Activation Induced by Large Bias: Tighter Analysis with Bias-Generalized NTK [86.45209429863858]
ニューラル・タンジェント・カーネル(NTK)における一層ReLUネットワークのトレーニングについて検討した。
我々は、ニューラルネットワークが、テクティトビア一般化NTKと呼ばれる異なる制限カーネルを持っていることを示した。
ニューラルネットの様々な特性をこの新しいカーネルで研究する。
論文 参考訳(メタデータ) (2023-01-01T02:11:39Z) - Neural networks trained with SGD learn distributions of increasing
complexity [78.30235086565388]
勾配降下法を用いてトレーニングされたニューラルネットワークは、まず低次入力統計を用いて入力を分類する。
その後、トレーニング中にのみ高次の統計を利用する。
本稿では,DSBと他の単純度バイアスとの関係について論じ,学習における普遍性の原理にその意味を考察する。
論文 参考訳(メタデータ) (2022-11-21T15:27:22Z) - Deep Architecture Connectivity Matters for Its Convergence: A
Fine-Grained Analysis [94.64007376939735]
我々は、勾配降下訓練におけるディープニューラルネットワーク(DNN)の収束に対する接続パターンの影響を理論的に特徴づける。
接続パターンの単純なフィルタリングによって、評価対象のモデルの数を削減できることが示される。
論文 参考訳(メタデータ) (2022-05-11T17:43:54Z) - The Spectral Bias of Polynomial Neural Networks [63.27903166253743]
PNN(Polynomial Neural Network)は、高頻度情報を重要視する画像生成と顔認識に特に有効であることが示されている。
これまでの研究では、ニューラルネットワークが低周波関数に対して$textitspectral bias$を示しており、トレーニング中に低周波成分のより高速な学習をもたらすことが示されている。
このような研究に触発されて、我々はPNNのTangent Kernel(NTK)のスペクトル分析を行う。
我々は、最近提案されたPNNのパラメトリゼーションである$Pi$-Netファミリがスピードアップすることを発見した。
論文 参考訳(メタデータ) (2022-02-27T23:12:43Z) - Implicit Data-Driven Regularization in Deep Neural Networks under SGD [0.0]
訓練されたディープニューラルネットワーク(DNN)に関与する大きなランダム行列のスペクトル解析
これらのスペクトルは、Marvcenko-Pasturスペクトル(MP)、Marvcenko-Pasturスペクトル(MPB)、Heav tailed spectrum(HT)の3種類に分類される。
論文 参考訳(メタデータ) (2021-11-26T06:36:16Z) - Multipole Graph Neural Operator for Parametric Partial Differential
Equations [57.90284928158383]
物理系をシミュレーションするためのディープラーニングベースの手法を使用する際の大きな課題の1つは、物理ベースのデータの定式化である。
線形複雑度のみを用いて、あらゆる範囲の相互作用をキャプチャする、新しいマルチレベルグラフニューラルネットワークフレームワークを提案する。
実験により, 離散化不変解演算子をPDEに学習し, 線形時間で評価できることを確認した。
論文 参考訳(メタデータ) (2020-06-16T21:56:22Z) - Spectrum Dependent Learning Curves in Kernel Regression and Wide Neural
Networks [17.188280334580195]
トレーニングサンプル数の関数として,カーネル回帰の一般化性能に関する解析式を導出する。
我々の表現は、トレーニングとニューラルカーネル・タンジェント(NTK)によるカーネル回帰の等価性により、広いニューラルネットワークに適用される。
我々は、合成データとMNISTデータセットのシミュレーションを用いて、我々の理論を検証する。
論文 参考訳(メタデータ) (2020-02-07T00:03:40Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。