論文の概要: On the VC dimension of deep group convolutional neural networks
- arxiv url: http://arxiv.org/abs/2410.15800v1
- Date: Mon, 21 Oct 2024 09:16:06 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-10-22 13:19:46.792101
- Title: On the VC dimension of deep group convolutional neural networks
- Title(参考訳): 深層群畳み込みニューラルネットワークのVC次元について
- Authors: Anna Sepliarskaia, Sophie Langer, Johannes Schmidt-Hieber,
- Abstract要約: 本稿では,グループ畳み込みニューラルネットワーク(GCNN)のReLU活性化機能を用いた一般化機能について検討する。
層数,重み,入力次元などの因子がVapnik-Chervonenkis(VC)次元にどのように影響するかを分析する。
- 参考スコア(独自算出の注目度): 7.237068561453083
- License:
- Abstract: We study the generalization capabilities of Group Convolutional Neural Networks (GCNNs) with ReLU activation function by deriving upper and lower bounds for their Vapnik-Chervonenkis (VC) dimension. Specifically, we analyze how factors such as the number of layers, weights, and input dimension affect the VC dimension. We further compare the derived bounds to those known for other types of neural networks. Our findings extend previous results on the VC dimension of continuous GCNNs with two layers, thereby providing new insights into the generalization properties of GCNNs, particularly regarding the dependence on the input resolution of the data.
- Abstract(参考訳): 本稿では,Vapnik-Chervonenkis(VC)次元の上下境界を導出することにより,ReLU活性化関数を用いたグループ畳み込みニューラルネットワーク(GCNN)の一般化能力について検討する。
具体的には、層数、重み、入力次元などの要因がVC次元にどのように影響するかを分析する。
さらに、派生した境界を、他のタイプのニューラルネットワークで知られている境界と比較する。
本研究は,2層からなる連続GCNNのVC次元に関する以前の結果を拡張し,GCNNの一般化特性,特にデータの入力解像度依存性に関する新たな知見を提供する。
関連論文リスト
- A note on the VC dimension of 1-dimensional GNNs [6.0757501646966965]
グラフニューラルネットワーク(GNN)は,グラフ構造化データを解析するための重要なツールとなっている。
本稿では,GNNの一般化について,Vapnik-Chervonenkis(VC)次元について検討する。
論文 参考訳(メタデータ) (2024-10-10T11:33:15Z) - Unveiling the Unseen: Identifiable Clusters in Trained Depthwise
Convolutional Kernels [56.69755544814834]
深部分離型畳み込みニューラルネットワーク(DS-CNN)の最近の進歩は、新しいアーキテクチャをもたらす。
本稿では,DS-CNNアーキテクチャのもう一つの顕著な特性を明らかにする。
論文 参考訳(メタデータ) (2024-01-25T19:05:53Z) - Sparsity-depth Tradeoff in Infinitely Wide Deep Neural Networks [22.083873334272027]
我々は,スペーサーネットワークが,様々なデータセットの浅い深度で非スパースネットワークより優れていることを観察した。
カーネルリッジ回帰の一般化誤差に関する既存の理論を拡張した。
論文 参考訳(メタデータ) (2023-05-17T20:09:35Z) - Transferability of coVariance Neural Networks and Application to
Interpretable Brain Age Prediction using Anatomical Features [119.45320143101381]
グラフ畳み込みネットワーク(GCN)は、トポロジー駆動のグラフ畳み込み演算を利用して、推論タスクのためにグラフをまたいだ情報を結合する。
我々は、共分散行列をグラフとして、共分散ニューラルネットワーク(VNN)の形でGCNを研究した。
VNNは、GCNからスケールフリーなデータ処理アーキテクチャを継承し、ここでは、共分散行列が極限オブジェクトに収束するデータセットに対して、VNNが性能の転送可能性を示すことを示す。
論文 参考訳(メタデータ) (2023-05-02T22:15:54Z) - Neural Networks with Sparse Activation Induced by Large Bias: Tighter Analysis with Bias-Generalized NTK [86.45209429863858]
ニューラル・タンジェント・カーネル(NTK)における一層ReLUネットワークのトレーニングについて検討した。
我々は、ニューラルネットワークが、テクティトビア一般化NTKと呼ばれる異なる制限カーネルを持っていることを示した。
ニューラルネットの様々な特性をこの新しいカーネルで研究する。
論文 参考訳(メタデータ) (2023-01-01T02:11:39Z) - Predicting Brain Age using Transferable coVariance Neural Networks [119.45320143101381]
我々は最近,サンプル共分散行列で動作する共分散ニューラルネットワーク(VNN)について検討した。
本稿では,大脳皮質厚みデータを用いた脳年齢推定におけるVNNの有用性を示す。
以上の結果から、VNNは脳年齢推定のためのマルチスケールおよびマルチサイト転送性を示すことが明らかとなった。
アルツハイマー病(AD)の脳年齢の文脈では,健常者に対してVNNを用いて予測される脳年齢がADに対して有意に上昇していることから,VNNの出力は解釈可能であることが示された。
論文 参考訳(メタデータ) (2022-10-28T18:58:34Z) - Extrapolation and Spectral Bias of Neural Nets with Hadamard Product: a
Polynomial Net Study [55.12108376616355]
NTKの研究は典型的なニューラルネットワークアーキテクチャに特化しているが、アダマール製品(NNs-Hp)を用いたニューラルネットワークには不完全である。
本研究では,ニューラルネットワークの特別なクラスであるNNs-Hpに対する有限幅Kの定式化を導出する。
我々は,カーネル回帰予測器と関連するNTKとの等価性を証明し,NTKの適用範囲を拡大する。
論文 参考訳(メタデータ) (2022-09-16T06:36:06Z) - On Feature Learning in Neural Networks with Global Convergence
Guarantees [49.870593940818715]
勾配流(GF)を用いた広帯域ニューラルネットワーク(NN)の最適化について検討する。
入力次元がトレーニングセットのサイズ以下である場合、トレーニング損失はGFの下での線形速度で0に収束することを示す。
また、ニューラル・タンジェント・カーネル(NTK)システムとは異なり、我々の多層モデルは特徴学習を示し、NTKモデルよりも優れた一般化性能が得られることを実証的に示す。
論文 参考訳(メタデータ) (2022-04-22T15:56:43Z) - VC dimension of partially quantized neural networks in the
overparametrized regime [8.854725253233333]
我々は、超平面配置ニューラルネットワーク(HANN)と呼ばれる部分量子化されたネットワークのクラスに焦点を当てる。
HANNは重みの数よりもVC次元がかなり小さく、表現力が高いことを示す。
121のUCIデータセットのパネルでは、過度にパラメータ化されたHANNが、最先端のフル精度モデルのパフォーマンスと一致している。
論文 参考訳(メタデータ) (2021-10-06T02:02:35Z) - Non-asymptotic Excess Risk Bounds for Classification with Deep
Convolutional Neural Networks [6.051520664893158]
本稿では,一般の深層畳み込みニューラルネットワークを用いたバイナリ分類の問題を考える。
我々は、入力データ次元と他のモデルパラメータの観点から、リスク境界の要素を定義する。
CNNを用いた分類手法は次元の呪いを回避できることを示す。
論文 参考訳(メタデータ) (2021-05-01T15:55:04Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。