論文の概要: Revolutionizing Fractional Calculus with Neural Networks: Voronovskaya-Damasclin Theory for Next-Generation AI Systems
- arxiv url: http://arxiv.org/abs/2504.03751v1
- Date: Tue, 01 Apr 2025 21:03:00 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-04-17 08:58:13.611303
- Title: Revolutionizing Fractional Calculus with Neural Networks: Voronovskaya-Damasclin Theory for Next-Generation AI Systems
- Title(参考訳): ニューラルネットワークによるフラクタル計算の革命:次世代AIシステムのためのVoronovskaya-Damasclin理論
- Authors: Rômulo Damasclin Chaves dos Santos, Jorge Henrique de Oliveira Sales,
- Abstract要約: この研究は、対称性と双曲型摂動関数によって活性化されるニューラルネットワーク演算子に対する厳密な収束率を導入する。
古典近似理論をカプトー微分を通じて分数計算に拡張する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: This work introduces rigorous convergence rates for neural network operators activated by symmetrized and perturbed hyperbolic tangent functions, utilizing novel Voronovskaya-Damasclin asymptotic expansions. We analyze basic, Kantorovich, and quadrature-type operators over infinite domains, extending classical approximation theory to fractional calculus via Caputo derivatives. Key innovations include parameterized activation functions with asymmetry control, symmetrized density operators, and fractional Taylor expansions for error analysis. The main theorem demonstrates that Kantorovich operators achieve \(o(n^{-\beta(N-\varepsilon)})\) convergence rates, while basic operators exhibit \(\mathcal{O}(n^{-\beta N})\) error decay. For deep networks, we prove \(\mathcal{O}(L^{-\beta(N-\varepsilon)})\) approximation bounds. Stability results under parameter perturbations highlight operator robustness. By integrating neural approximation theory with fractional calculus, this work provides foundational mathematical insights and deployable engineering solutions, with potential applications in complex system modeling and signal processing.
- Abstract(参考訳): この研究は、新しいVoronovskaya-Damasclin漸近展開を利用して、対称性と摂動型双曲型タンジェント関数によって活性化されるニューラルネットワーク演算子に対する厳密な収束率を導入する。
無限領域上の基本作用素、カントロビッチ作用素および二次作用素を解析し、古典近似理論をカプトー微分を通じて分数計算に拡張する。
鍵となる革新は、非対称性制御を持つパラメータ化活性化関数、対称性化密度演算子、エラー解析のための分数的テイラー展開である。
主定理は、カントロビッチ作用素が(o(n^{-\beta(N-\varepsilon)})\)収束率を達成することを示し、一方基本作用素は(n^{-\beta N})\)誤差崩壊を示す。
ディープネットワークに対しては、(\mathcal{O}(L^{-\beta(N-\varepsilon)})\)近似境界を証明する。
パラメータ摂動の安定性は、演算子の堅牢性を強調する。
この研究は、神経近似理論と分数計算を統合することで、基礎的な数学的洞察とデプロイ可能なエンジニアリングソリューションを提供し、複雑なシステムモデリングと信号処理に潜在的に応用することができる。
関連論文リスト
- Extension of Symmetrized Neural Network Operators with Fractional and Mixed Activation Functions [0.0]
本稿では, 分数および混合活性化関数を組み込むことにより, 対称性を持つニューラルネットワーク演算子への新たな拡張を提案する。
本フレームワークでは、アクティベーション関数に分数指数を導入し、適応的な非線形近似を精度良く実現する。
論文 参考訳(メタデータ) (2025-01-17T14:24:25Z) - Approximation Rates in Fréchet Metrics: Barron Spaces, Paley-Wiener Spaces, and Fourier Multipliers [1.4732811715354452]
フーリエ領域の対応する記号を近似することで線形微分作用素の一般近似機能について検討する。
その意味で、近似誤差をFr'echetメートル法で測定する。
すると、我々は主定理の自然な拡張に焦点を合わせ、そこでは半ノルムの列の仮定を小さくすることができる。
論文 参考訳(メタデータ) (2024-12-27T20:16:04Z) - Convergence analysis of wide shallow neural operators within the framework of Neural Tangent Kernel [4.313136216120379]
我々は、ニューラルタンジェントカーネル(NTK)の枠組み内で、広い浅層ニューラル演算子と物理インフォームド浅部ニューラル演算子の勾配降下の収束解析を行う。
過度なパラメータ化の設定の下では、勾配降下は連続時間であるか離散時間であるかに関わらず、大域的な最小値を見つけることができる。
論文 参考訳(メタデータ) (2024-12-07T05:47:28Z) - A Mathematical Analysis of Neural Operator Behaviors [0.0]
本稿では,ニューラルネットワークの動作を分析するための厳密な枠組みを提案する。
我々はそれらの安定性、収束性、クラスタリングダイナミクス、普遍性、一般化誤差に焦点を当てる。
我々は,ニューラル演算子に基づく手法の今後の設計のために,単一設定で明確かつ統一的なガイダンスを提供することを目指している。
論文 参考訳(メタデータ) (2024-10-28T19:38:53Z) - DimOL: Dimensional Awareness as A New 'Dimension' in Operator Learning [60.58067866537143]
本稿では,DimOL(Dimension-aware Operator Learning)を紹介し,次元解析から洞察を得る。
DimOLを実装するために,FNOおよびTransformerベースのPDEソルバにシームレスに統合可能なProdLayerを提案する。
経験的に、DimOLモデルはPDEデータセット内で最大48%のパフォーマンス向上を達成する。
論文 参考訳(メタデータ) (2024-10-08T10:48:50Z) - Stable Nonconvex-Nonconcave Training via Linear Interpolation [51.668052890249726]
本稿では,ニューラルネットワークトレーニングを安定化(大規模)するための原理的手法として,線形アヘッドの理論解析を提案する。
最適化過程の不安定性は、しばしば損失ランドスケープの非単調性によって引き起こされるものであり、非拡張作用素の理論を活用することによって線型性がいかに役立つかを示す。
論文 参考訳(メタデータ) (2023-10-20T12:45:12Z) - Reinforcement Learning from Partial Observation: Linear Function Approximation with Provable Sample Efficiency [111.83670279016599]
部分観察決定過程(POMDP)の無限観測および状態空間を用いた強化学習について検討した。
線形構造をもつPOMDPのクラスに対する部分可観測性と関数近似の最初の試みを行う。
論文 参考訳(メタデータ) (2022-04-20T21:15:38Z) - Neural Operator: Learning Maps Between Function Spaces [75.93843876663128]
本稿では,無限次元関数空間間を写像する演算子,いわゆるニューラル演算子を学習するためのニューラルネットワークの一般化を提案する。
提案したニューラル作用素に対して普遍近似定理を証明し、任意の非線形連続作用素を近似することができることを示す。
ニューラル作用素に対する重要な応用は、偏微分方程式の解作用素に対する代理写像を学習することである。
論文 参考訳(メタデータ) (2021-08-19T03:56:49Z) - Fractal Structure and Generalization Properties of Stochastic
Optimization Algorithms [71.62575565990502]
最適化アルゴリズムの一般化誤差は、その一般化尺度の根底にあるフラクタル構造の複雑性'にバウンドできることを示す。
さらに、特定の問題(リニア/ロジスティックレグレッション、隠れ/層ニューラルネットワークなど)とアルゴリズムに対して、結果をさらに専門化します。
論文 参考訳(メタデータ) (2021-06-09T08:05:36Z) - Fourier Neural Operator for Parametric Partial Differential Equations [57.90284928158383]
積分カーネルを直接フーリエ空間でパラメータ化することで、新しいニューラル演算子を定式化する。
バーガースの方程式、ダーシー流、ナビエ・ストークス方程式の実験を行う。
従来のPDEソルバに比べて最大3桁高速である。
論文 参考訳(メタデータ) (2020-10-18T00:34:21Z) - Provably Efficient Neural Estimation of Structural Equation Model: An
Adversarial Approach [144.21892195917758]
一般化構造方程式モデル(SEM)のクラスにおける推定について検討する。
線形作用素方程式をmin-maxゲームとして定式化し、ニューラルネットワーク(NN)でパラメータ化し、勾配勾配を用いてニューラルネットワークのパラメータを学習する。
提案手法は,サンプル分割を必要とせず,確固とした収束性を持つNNをベースとしたSEMの抽出可能な推定手順を初めて提供する。
論文 参考訳(メタデータ) (2020-07-02T17:55:47Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。