論文の概要: Time-Frequency Analysis for Neural Networks
- arxiv url: http://arxiv.org/abs/2512.15992v1
- Date: Wed, 17 Dec 2025 21:51:51 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-12-19 18:10:31.835793
- Title: Time-Frequency Analysis for Neural Networks
- Title(参考訳): ニューラルネットワークの時間周波数解析
- Authors: Ahmed Abdeljawad, Elena Cordero,
- Abstract要約: 我々は、標準アクティベーションと局所時間帯ウィンドウを組み合わせたネットワークに対して、ソボレフノルム$Wn,r()$の次元非依存近似レートを証明した。
Mp,q_m(mathbfRd)$ 1 に対して [ |f - f_N|_Wn,r() lesssim N-1/2,|f|_Mp,q_m(mathbf)
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We develop a quantitative approximation theory for shallow neural networks using tools from time-frequency analysis. Working in weighted modulation spaces $M^{p,q}_m(\mathbf{R}^{d})$, we prove dimension-independent approximation rates in Sobolev norms $W^{n,r}(Ω)$ for networks whose units combine standard activations with localized time-frequency windows. Our main result shows that for $f \in M^{p,q}_m(\mathbf{R}^{d})$ one can achieve \[ \|f - f_N\|_{W^{n,r}(Ω)} \lesssim N^{-1/2}\,\|f\|_{M^{p,q}_m(\mathbf{R}^{d})}, \] on bounded domains, with explicit control of all constants. We further obtain global approximation theorems on $\mathbf{R}^{d}$ using weighted modulation dictionaries, and derive consequences for Feichtinger's algebra, Fourier-Lebesgue spaces, and Barron spaces. Numerical experiments in one and two dimensions confirm that modulation-based networks achieve substantially better Sobolev approximation than standard ReLU networks, consistent with the theoretical estimates.
- Abstract(参考訳): 我々は、時間周波数解析のツールを用いた浅層ニューラルネットワークの定量的近似理論を開発した。
重み付き変調空間 $M^{p,q}_m(\mathbf{R}^{d})$ で作業し、標準活性化と局所時間周波数ウィンドウを組み合わせたネットワークに対して、ソボレフノルム $W^{n,r}(Ω)$ の次元非依存近似率を証明する。
我々の主な結果は、$f \in M^{p,q}_m(\mathbf{R}^{d})$ 1 に対して、すべての定数を明示的に制御し、有界領域上で \[ \|f - f_N\|_{W^{n,r}(Ω)} \lesssim N^{-1/2}\,\|f\|_{M^{p,q}_m(\mathbf{R}^{d})} が得られることを示している。
さらに、重み付き変調辞書を用いて$\mathbf{R}^{d}$上の大域近似定理を取得し、ファイヒティンガー代数、フーリエ・ルベーグ空間、バロン空間に対する帰結を導出する。
1次元と2次元の数値実験により、変調に基づくネットワークは標準的なReLUネットワークよりもはるかに優れたソボレフ近似を実現し、理論的な推定値と一致することが確認された。
関連論文リスト
- The Spectral Dimension of NTKs is Constant: A Theory of Implicit Regularization, Finite-Width Stability, and Scalable Estimation [0.0]
定数極限法則 $lim_ntoinfty mathbbE[r_texteff(K_n)] = mathbbE[k(x, x)]2 を証明する。
有限幅 NTK が作用素ノルムにおいて $O_p(m-1/2)$ でずれるなら、$r_texteff$ は $O_p(m-1/2)$ で変化する。
ランダムを用いたスケーラブルな推定器を設計する
論文 参考訳(メタデータ) (2025-11-30T12:14:21Z) - Expressive Power of Deep Networks on Manifolds: Simultaneous Approximation [2.815765641180636]
境界重みを持つ定数深度$mathrmReLUk-1$ネットワークは、ソボレフ空間内の任意の関数を近似することができることを示す。
また、必要なパラメータ数が対数係数に一致することを示すことで、我々の構成がほぼ最適であることを示す。
論文 参考訳(メタデータ) (2025-09-11T11:28:20Z) - Learning with Norm Constrained, Over-parameterized, Two-layer Neural Networks [54.177130905659155]
近年の研究では、再生カーネルヒルベルト空間(RKHS)がニューラルネットワークによる関数のモデル化に適した空間ではないことが示されている。
本稿では,有界ノルムを持つオーバーパラメータ化された2層ニューラルネットワークに適した関数空間について検討する。
論文 参考訳(メタデータ) (2024-04-29T15:04:07Z) - A Unified Framework for Uniform Signal Recovery in Nonlinear Generative
Compressed Sensing [68.80803866919123]
非線形測定では、ほとんどの先行結果は一様ではない、すなわち、すべての$mathbfx*$に対してではなく、固定された$mathbfx*$に対して高い確率で保持される。
本フレームワークはGCSに1ビット/一様量子化観測と単一インデックスモデルを標準例として適用する。
また、指標集合が計量エントロピーが低い製品プロセスに対して、より厳密な境界を生み出す濃度不等式も開発する。
論文 参考訳(メタデータ) (2023-09-25T17:54:19Z) - A lower bound on the space overhead of fault-tolerant quantum computation [51.723084600243716]
しきい値定理は、フォールトトレラント量子計算の理論における基本的な結果である。
振幅雑音を伴う耐故障性量子計算の最大長に対する指数的上限を証明した。
論文 参考訳(メタデータ) (2022-01-31T22:19:49Z) - Mean-Square Analysis with An Application to Optimal Dimension Dependence
of Langevin Monte Carlo [60.785586069299356]
この研究は、2-ワッサーシュタイン距離におけるサンプリング誤差の非同相解析のための一般的な枠組みを提供する。
我々の理論解析は数値実験によってさらに検証される。
論文 参考訳(メタデータ) (2021-09-08T18:00:05Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。