論文の概要: Neural Network Operator-Based Fractal Approximation: Smoothness Preservation and Convergence Analysis
- arxiv url: http://arxiv.org/abs/2505.06229v1
- Date: Sat, 22 Mar 2025 07:12:57 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-06-22 23:32:14.390035
- Title: Neural Network Operator-Based Fractal Approximation: Smoothness Preservation and Convergence Analysis
- Title(参考訳): ニューラルネットワーク演算子に基づくフラクタル近似:滑らかな保存と収束解析
- Authors: Aaqib Ayoub Bhat, Asif Khan, M. Mursaleen,
- Abstract要約: 本稿では,ニューラルネットワーク演算子を用いた$alpha$-fractal関数(FIF)の構築手法を提案する。
我々は,ノードや分割点における元の関数の値のみを利用するフラクタル関数を開発した。
適切な条件下でこれらの$alpha$-fractalsの元の関数への収束を分析する。
- 参考スコア(独自算出の注目度): 1.0879986496362417
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: This paper presents a new approach of constructing $\alpha$-fractal interpolation functions (FIFs) using neural network operators, integrating concepts from approximation theory. Initially, we construct $\alpha$-fractals utilizing neural network-based operators, providing an approach to generating fractal functions with interpolation properties. Based on the same foundation, we have developed fractal interpolation functions that utilize only the values of the original function at the nodes or partition points, unlike traditional methods that rely on the entire original function. Further, we have constructed \(\alpha\)-fractals that preserve the smoothness of functions under certain constraints by employing a four-layered neural network operator, ensuring that if \(f \in C^{r}[a,b]\), then the corresponding fractal \(f^{\alpha} \in C^{r}[a,b]\). Furthermore, we analyze the convergence of these $\alpha$-fractals to the original function under suitable conditions. The work uses key approximation theory tools, such as the modulus of continuity and interpolation operators, to develop convergence results and uniform approximation error bounds.
- Abstract(参考訳): 本稿では,ニューラルネットワーク演算子を用いた$\alpha$-fractal Interpolation関数(FIF)の構築と近似理論の概念の統合について述べる。
まず、ニューラルネットワークに基づく演算子を用いて$\alpha$-fractalsを構築し、補間特性を持つフラクタル関数を生成するアプローチを提案する。
同じ基礎に基づいて,ノードやパーティションポイントにおける元の関数の値のみを利用するフラクタル補間関数を開発した。
さらに, 4層ニューラルネットワーク演算子を用いて, ある制約下で関数の滑らかさを保った \(\alpha\)-フラクタルを構築し, 対応するフラクタル \(f^{\alpha} \in C^{r}[a,b]\) が成り立つことを保証した。
さらに、適切な条件下でこれらの$\alpha$-fractalsの元の関数への収束を分析する。
この研究は、連続性のモジュラーや補間作用素のような鍵近似理論ツールを使用して収束結果と均一な近似誤差境界を開発する。
関連論文リスト
- Function Forms of Simple ReLU Networks with Random Hidden Weights [1.2289361708127877]
無限幅限界における2層ReLUニューラルネットワークの関数空間ダイナミクスについて検討する。
ステアリング学習におけるフィッシャー情報行列の役割を強調した。
この研究は、広いニューラルネットワークを理解するための堅牢な基盤を提供する。
論文 参考訳(メタデータ) (2025-05-23T13:53:02Z) - Extension of Symmetrized Neural Network Operators with Fractional and Mixed Activation Functions [0.0]
本稿では, 分数および混合活性化関数を組み込むことにより, 対称性を持つニューラルネットワーク演算子への新たな拡張を提案する。
本フレームワークでは、アクティベーション関数に分数指数を導入し、適応的な非線形近似を精度良く実現する。
論文 参考訳(メタデータ) (2025-01-17T14:24:25Z) - A Globally Convergent Algorithm for Neural Network Parameter
Optimization Based on Difference-of-Convex Functions [29.58728073957055]
隠れ層ネットワークのパラメータを最適化するアルゴリズムを提案する。
具体的には,ブロックワイズ(DC-of-the-art)差分関数を導出する。
論文 参考訳(メタデータ) (2024-01-15T19:53:35Z) - Stable Nonconvex-Nonconcave Training via Linear Interpolation [51.668052890249726]
本稿では,ニューラルネットワークトレーニングを安定化(大規模)するための原理的手法として,線形アヘッドの理論解析を提案する。
最適化過程の不安定性は、しばしば損失ランドスケープの非単調性によって引き起こされるものであり、非拡張作用素の理論を活用することによって線型性がいかに役立つかを示す。
論文 参考訳(メタデータ) (2023-10-20T12:45:12Z) - Approximation and interpolation of deep neural networks [0.0]
過度にパラメータ化された状態において、ディープニューラルネットワークは普遍的な近似を提供し、任意のデータセットを補間することができる。
最後の節では、活性化関数の一般的な条件下でそのような点を見つけるための実用的な確率的方法を提案する。
論文 参考訳(メタデータ) (2023-04-20T08:45:16Z) - Deep neural network approximation of analytic functions [91.3755431537592]
ニューラルネットワークの空間に エントロピーバウンド 片方向の線形活性化関数を持つ
我々は、ペナル化深部ニューラルネットワーク推定器の予測誤差に対するオラクルの不等式を導出する。
論文 参考訳(メタデータ) (2021-04-05T18:02:04Z) - A semigroup method for high dimensional committor functions based on
neural network [1.7205106391379026]
偏微分方程式を扱う代わりに、新しい手法は微分作用素の半群に基づく積分的定式化を扱う。
勾配降下型アルゴリズムは、任意の混合二階微分を計算することなく、コミッタ関数の訓練に適用することができる。
ペナルティ項によって境界条件を強制する以前の方法とは異なり、新しい方法は境界条件を自動的に考慮する。
論文 参考訳(メタデータ) (2020-12-12T05:00:47Z) - Complexity of Finding Stationary Points of Nonsmooth Nonconvex Functions [84.49087114959872]
非滑らかで非滑らかな関数の定常点を見つけるための最初の非漸近解析を提供する。
特に、アダマール半微分可能函数(おそらく非滑らか関数の最大のクラス)について研究する。
論文 参考訳(メタデータ) (2020-02-10T23:23:04Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。