論文の概要: Theory of periodic convolutional neural network
- arxiv url: http://arxiv.org/abs/2509.18744v1
- Date: Tue, 23 Sep 2025 07:43:02 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-24 20:41:27.751871
- Title: Theory of periodic convolutional neural network
- Title(参考訳): 周期的畳み込みニューラルネットワークの理論
- Authors: Yuqing Liu,
- Abstract要約: 我々は、周期境界条件を畳み込み層に組み込んだ、長周期CNNと呼ばれる新しい畳み込みニューラルネットワークアーキテクチャを導入する。
周期的CNNは、$d-1$の線形変数に依存するリッジ関数を$d$次元の入力空間で近似することができる。
この結果から, 周期的CNNは, 高内在次元の隆起構造が自然に認められる問題に特に適していることが示唆された。
- 参考スコア(独自算出の注目度): 2.5288763663662883
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: We introduce a novel convolutional neural network architecture, termed the \emph{periodic CNN}, which incorporates periodic boundary conditions into the convolutional layers. Our main theoretical contribution is a rigorous approximation theorem: periodic CNNs can approximate ridge functions depending on $d-1$ linear variables in a $d$-dimensional input space, while such approximation is impossible in lower-dimensional ridge settings ($d-2$ or fewer variables). This result establishes a sharp characterization of the expressive power of periodic CNNs. Beyond the theory, our findings suggest that periodic CNNs are particularly well-suited for problems where data naturally admits a ridge-like structure of high intrinsic dimension, such as image analysis on wrapped domains, physics-informed learning, and materials science. The work thus both expands the mathematical foundation of CNN approximation theory and highlights a class of architectures with surprising and practically relevant approximation capabilities.
- Abstract(参考訳): 本稿では,周期境界条件を畳み込み層に組み込んだ新しい畳み込みニューラルネットワークアーキテクチャである「emph{ periodic CNN}」を紹介する。
周期的 CNN は$d-1$ の線形変数に依存して、$d$ 次元の入力空間におけるリッジ関数を近似することができるが、そのような近似は、低次元のリッジ設定($d-2$ 以下の変数)では不可能である。
この結果は、周期的CNNの表現力の鋭い特徴を定めている。
この理論以外にも、周期的なCNNは、ラップされたドメインの画像解析、物理インフォームドラーニング、材料科学など、データが自然に高内在次元のリッジのような構造を許容する問題に特に適していることを示唆している。
これにより、CNN近似理論の数学的基礎が拡張され、驚くべき、実用的な近似能力を持つアーキテクチャのクラスが強調される。
関連論文リスト
- Global Convergence and Rich Feature Learning in $L$-Layer Infinite-Width Neural Networks under $μ$P Parametrization [66.03821840425539]
本稿では, テンソル勾配プログラム(SGD)フレームワークを用いた$L$層ニューラルネットワークのトレーニング力学について検討する。
SGDにより、これらのネットワークが初期値から大きく逸脱する線形独立な特徴を学習できることを示す。
このリッチな特徴空間は、関連するデータ情報をキャプチャし、トレーニングプロセスの収束点が世界最小であることを保証する。
論文 参考訳(メタデータ) (2025-03-12T17:33:13Z) - Learning Multi-Index Models with Neural Networks via Mean-Field Langevin Dynamics [21.55547541297847]
平均場ランゲヴィンアルゴリズムを用いて学習した2層ニューラルネットワークを用いて,高次元のマルチインデックスモデルを学習する問題について検討する。
軽度の分布仮定の下では、サンプルと計算の複雑さの両方を制御する実効次元 $d_mathrmeff$ を特徴づける。
論文 参考訳(メタデータ) (2024-08-14T02:13:35Z) - Convolutional Neural Networks on Manifolds: From Graphs and Back [122.06927400759021]
本稿では,多様体畳み込みフィルタと点次非線形性からなる多様体ニューラルネットワーク(MNN)を提案する。
要約すると、我々は大きなグラフの極限として多様体モデルに焦点を合わせ、MNNを構築するが、それでもMNNの離散化によってグラフニューラルネットワークを復活させることができる。
論文 参考訳(メタデータ) (2022-10-01T21:17:39Z) - What Can Be Learnt With Wide Convolutional Neural Networks? [69.55323565255631]
カーネルシステムにおける無限大の深層CNNについて検討する。
我々は,深部CNNが対象関数の空間スケールに適応していることを証明する。
我々は、別の深部CNNの出力に基づいて訓練された深部CNNの一般化誤差を計算して結論付ける。
論文 参考訳(メタデータ) (2022-08-01T17:19:32Z) - The Spectral Bias of Polynomial Neural Networks [63.27903166253743]
PNN(Polynomial Neural Network)は、高頻度情報を重要視する画像生成と顔認識に特に有効であることが示されている。
これまでの研究では、ニューラルネットワークが低周波関数に対して$textitspectral bias$を示しており、トレーニング中に低周波成分のより高速な学習をもたらすことが示されている。
このような研究に触発されて、我々はPNNのTangent Kernel(NTK)のスペクトル分析を行う。
我々は、最近提案されたPNNのパラメトリゼーションである$Pi$-Netファミリがスピードアップすることを発見した。
論文 参考訳(メタデータ) (2022-02-27T23:12:43Z) - The Separation Capacity of Random Neural Networks [78.25060223808936]
標準ガウス重みと一様分布バイアスを持つ十分に大きな2層ReLUネットワークは、この問題を高い確率で解くことができることを示す。
我々は、相互複雑性という新しい概念の観点から、データの関連構造を定量化する。
論文 参考訳(メタデータ) (2021-07-31T10:25:26Z) - GeoT: A Geometry-aware Transformer for Reliable Molecular Property
Prediction and Chemically Interpretable Representation Learning [16.484048833163282]
GeoT(Geometry-aware Transformer)という,分子表現学習のためのトランスフォーマーベースの新しいフレームワークを提案する。
GeoTは、分子特性予測と同様に、信頼性の高い解釈性を提供するように設計された注意に基づくメカニズムを通じて、分子グラフ構造を学習する。
実験的なシミュレーションを含む包括的実験により、GeoTは分子構造に関する化学的な洞察を効果的に学習し、人工知能と分子科学のギャップを埋めることを明らかにした。
論文 参考訳(メタデータ) (2021-06-29T15:47:18Z) - Theory of Deep Convolutional Neural Networks II: Spherical Analysis [9.099589602551573]
単位球面$mathbbSd-1$ of $mathbbRd$ 上の近似関数に適用された深部畳み込みニューラルネットワークの族を考える。
我々の解析は、近似関数がソボレフ空間 $Wr_infty (mathbbSd-1)$ に$r>0$ あるいは加法リッジ形式を取るとき、一様近似の速度を示す。
論文 参考訳(メタデータ) (2020-07-28T14:54:30Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。