論文の概要: Manifold limit for the training of shallow graph convolutional neural networks
- arxiv url: http://arxiv.org/abs/2601.06025v1
- Date: Fri, 09 Jan 2026 18:59:20 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-12 17:41:50.077973
- Title: Manifold limit for the training of shallow graph convolutional neural networks
- Title(参考訳): 浅いグラフ畳み込みニューラルネットワークのトレーニングのためのマニフォールド限界
- Authors: Johanna Tengler, Christoph Brune, José A. Iglesias,
- Abstract要約: 本研究では,浅部グラフ畳み込みニューラルネットワーク(GCNN)のサンプル点雲近傍グラフにおけるトレーニングの整合性について検討した。
我々は、正規化された経験的リスク最小化関数の$$-convergenceと、それらの大域的最小化関数の対応する収束を証明した。
- 参考スコア(独自算出の注目度): 1.2744523252873352
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We study the discrete-to-continuum consistency of the training of shallow graph convolutional neural networks (GCNNs) on proximity graphs of sampled point clouds under a manifold assumption. Graph convolution is defined spectrally via the graph Laplacian, whose low-frequency spectrum approximates that of the Laplace-Beltrami operator of the underlying smooth manifold, and shallow GCNNs of possibly infinite width are linear functionals on the space of measures on the parameter space. From this functional-analytic perspective, graph signals are seen as spatial discretizations of functions on the manifold, which leads to a natural notion of training data consistent across graph resolutions. To enable convergence results, the continuum parameter space is chosen as a weakly compact product of unit balls, with Sobolev regularity imposed on the output weight and bias, but not on the convolutional parameter. The corresponding discrete parameter spaces inherit the corresponding spectral decay, and are additionally restricted by a frequency cutoff adapted to the informative spectral window of the graph Laplacians. Under these assumptions, we prove $Γ$-convergence of regularized empirical risk minimization functionals and corresponding convergence of their global minimizers, in the sense of weak convergence of the parameter measures and uniform convergence of the functions over compact sets. This provides a formalization of mesh and sample independence for the training of such networks.
- Abstract(参考訳): 本研究では, 浅部グラフ畳み込みニューラルネットワーク(GCNN)の学習における離散連続性について, 多様体の仮定の下で, サンプル点雲の近接グラフ上で検討した。
グラフ畳み込みはグラフラプラシアンによってスペクトル的に定義され、その低周波スペクトルは下層の滑らかな多様体のラプラス・ベルトラミ作用素に近似し、潜在的に無限幅の浅いGCNNはパラメータ空間上の測度空間上の線型汎函数である。
この関数解析の観点から、グラフ信号は多様体上の関数の空間的離散化と見なされ、グラフ分解に一貫性のある訓練データの自然な概念が導かれる。
収束結果を実現するため、連続パラメータ空間は単位球の弱コンパクトな積として選択され、ソボレフ規則性は出力重みとバイアスに課されるが、畳み込みパラメータには適用されない。
対応する離散パラメータ空間は対応するスペクトル減衰を継承し、グラフラプラシアンの情報スペクトルウィンドウに適応した周波数カットオフによってさらに制限される。
これらの仮定の下では、パラメータ測度の弱収束とコンパクト集合上の関数の均一収束という観点から、正規化された経験的リスク最小化関数の$$$収束と、それらの大域的最小化関数の対応する収束を証明している。
これは、そのようなネットワークのトレーニングのためのメッシュとサンプル独立の形式化を提供する。
関連論文リスト
- The Curvature Rate λ: A Scalar Measure of Input-Space Sharpness in Neural Networks [0.0]
曲線は一般化、堅牢性、ニューラルネットワークが小さな入力摂動にいかに確実に反応するかに影響を及ぼす。
入力空間で直接定義されるスカラー曲率測度、すなわち曲率ラムダを導入する。
ラムダは、決定境界における高周波構造の出現を追跡する。
論文 参考訳(メタデータ) (2025-11-03T10:46:03Z) - Point Cloud Denoising With Fine-Granularity Dynamic Graph Convolutional Networks [58.050130177241186]
ノイズの摂動は、しばしば3次元の点雲を破損させ、表面の再構成、レンダリング、さらなる処理といった下流のタスクを妨げる。
本稿では,GDGCNと呼ばれる粒度動的グラフ畳み込みネットワークについて紹介する。
論文 参考訳(メタデータ) (2024-11-21T14:19:32Z) - A Mean-Field Analysis of Neural Stochastic Gradient Descent-Ascent for Functional Minimax Optimization [90.87444114491116]
本稿では,超パラメトリック化された2層ニューラルネットワークの無限次元関数クラス上で定義される最小最適化問題について検討する。
i) 勾配降下指数アルゴリズムの収束と, (ii) ニューラルネットワークの表現学習に対処する。
その結果、ニューラルネットワークによって誘導される特徴表現は、ワッサーシュタイン距離で測定された$O(alpha-1)$で初期表現から逸脱することが許された。
論文 参考訳(メタデータ) (2024-04-18T16:46:08Z) - Geometric Graph Filters and Neural Networks: Limit Properties and
Discriminability Trade-offs [122.06927400759021]
本稿では,グラフニューラルネットワーク (GNN) と多様体ニューラルネットワーク (MNN) の関係について検討する。
これらのグラフ上の畳み込みフィルタとニューラルネットワークが連続多様体上の畳み込みフィルタとニューラルネットワークに収束することを示す。
論文 参考訳(メタデータ) (2023-05-29T08:27:17Z) - Geometric Scattering on Measure Spaces [15.819230791757906]
測度空間上での幾何散乱の一般統一モデルを導入する。
未知多様体をランダムにサンプリングして得られる有限測度空間を考える。
本稿では, 関連するグラフ散乱変換が基礎多様体上の散乱変換を近似するデータ駆動グラフを構築するための2つの方法を提案する。
論文 参考訳(メタデータ) (2022-08-17T22:40:09Z) - Spectral-Spatial Global Graph Reasoning for Hyperspectral Image
Classification [50.899576891296235]
畳み込みニューラルネットワークは、ハイパースペクトル画像分類に広く応用されている。
近年の手法は空間トポロジのグラフ畳み込みによってこの問題に対処しようとしている。
論文 参考訳(メタデータ) (2021-06-26T06:24:51Z) - Semiparametric Nonlinear Bipartite Graph Representation Learning with
Provable Guarantees [106.91654068632882]
半パラメトリック指数族分布におけるパラメータの統計的推定問題として、両部グラフを考察し、その表現学習問題を定式化する。
提案手法は, 地中真理付近で強い凸性を示すため, 勾配降下法が線形収束率を達成できることを示す。
我々の推定器は指数族内の任意のモデル誤特定に対して頑健であり、広範な実験で検証されている。
論文 参考訳(メタデータ) (2020-03-02T16:40:36Z) - Convex Geometry and Duality of Over-parameterized Neural Networks [70.15611146583068]
有限幅2層ReLUネットワークの解析のための凸解析手法を開発した。
正規化学習問題に対する最適解が凸集合の極点として特徴づけられることを示す。
高次元では、トレーニング問題は無限に多くの制約を持つ有限次元凸問題としてキャストできることが示される。
論文 参考訳(メタデータ) (2020-02-25T23:05:33Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。