論文の概要: Convergence Analysis of Max-Min Exponential Neural Network Operators in Orlicz Space
- arxiv url: http://arxiv.org/abs/2508.10248v1
- Date: Thu, 14 Aug 2025 00:30:56 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-08-15 22:24:48.142014
- Title: Convergence Analysis of Max-Min Exponential Neural Network Operators in Orlicz Space
- Title(参考訳): オーリッツ空間における最大最小指数ニューラルネット演算子の収束解析
- Authors: Satyaranjan Pradhan, Madan Mohan Soren,
- Abstract要約: 指数型ニューラルネットワーク演算子を用いた近似関数に対するMax Minアプローチを提案する。
単変数関数に対する点収束と一様収束について検討する。
適切なカーネルとシグモダルアクティベーション関数を通して関数の近似誤差を記述するためのグラフィカルな表現を提供する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: In this current work, we propose a Max Min approach for approximating functions using exponential neural network operators. We extend this framework to develop the Max Min Kantorovich-type exponential neural network operators and investigate their approximation properties. We study both pointwise and uniform convergence for univariate functions. To analyze the order of convergence, we use the logarithmic modulus of continuity and estimate the corresponding rate of convergence. Furthermore, we examine the convergence behavior of the Max Min Kantorovich type exponential neural network operators within the Orlicz space setting. We provide some graphical representations to illustrate the approximation error of the function through suitable kernel and sigmoidal activation functions.
- Abstract(参考訳): 本稿では,指数型ニューラルネットワーク演算子を用いた関数近似のためのMax Minアプローチを提案する。
我々は、このフレームワークを拡張して、Max Min Kantorovich型指数型ニューラルネットワーク演算子を開発し、それらの近似特性について検討する。
単変数関数に対する点収束と一様収束について検討する。
収束の順序を解析するために、連続性の対数的係数を使い、収束の対応する速度を推定する。
さらに,最大ミン・カントロビッチ型指数型ニューラルネットワーク演算子のオルリッツ空間における収束挙動について検討した。
適切なカーネルとシグモダルアクティベーション関数を通して関数の近似誤差を記述するためのグラフィカルな表現を提供する。
関連論文リスト
- Revolutionizing Fractional Calculus with Neural Networks: Voronovskaya-Damasclin Theory for Next-Generation AI Systems [0.0]
この研究は、対称性と双曲型摂動関数によって活性化されるニューラルネットワーク演算子に対する厳密な収束率を導入する。
古典近似理論をカプトー微分を通じて分数計算に拡張する。
論文 参考訳(メタデータ) (2025-04-01T21:03:00Z) - Extension of Symmetrized Neural Network Operators with Fractional and Mixed Activation Functions [0.0]
本稿では, 分数および混合活性化関数を組み込むことにより, 対称性を持つニューラルネットワーク演算子への新たな拡張を提案する。
本フレームワークでは、アクティベーション関数に分数指数を導入し、適応的な非線形近似を精度良く実現する。
論文 参考訳(メタデータ) (2025-01-17T14:24:25Z) - Operator Learning of Lipschitz Operators: An Information-Theoretic Perspective [2.375038919274297]
この研究は、リプシッツ連続作用素の一般クラスに対する神経作用素近似の複雑さに対処する。
我々の主な貢献は、2つの近似設定におけるリプシッツ作用素の計量エントロピーの低い境界を確立することである。
使用したアクティベーション関数にかかわらず、近似精度が$epsilon$に達する神経オペレーターアーキテクチャは、$epsilon-1$で指数関数的に大きいサイズでなければならない。
論文 参考訳(メタデータ) (2024-06-26T23:36:46Z) - A Mean-Field Analysis of Neural Stochastic Gradient Descent-Ascent for Functional Minimax Optimization [90.87444114491116]
本稿では,超パラメトリック化された2層ニューラルネットワークの無限次元関数クラス上で定義される最小最適化問題について検討する。
i) 勾配降下指数アルゴリズムの収束と, (ii) ニューラルネットワークの表現学習に対処する。
その結果、ニューラルネットワークによって誘導される特徴表現は、ワッサーシュタイン距離で測定された$O(alpha-1)$で初期表現から逸脱することが許された。
論文 参考訳(メタデータ) (2024-04-18T16:46:08Z) - Promises and Pitfalls of the Linearized Laplace in Bayesian Optimization [73.80101701431103]
線形化ラプラス近似(LLA)はベイズニューラルネットワークの構築に有効で効率的であることが示されている。
ベイズ最適化におけるLLAの有用性について検討し,その性能と柔軟性を強調した。
論文 参考訳(メタデータ) (2023-04-17T14:23:43Z) - Convex Bounds on the Softmax Function with Applications to Robustness
Verification [69.09991317119679]
ソフトマックス関数は、ニューラルネットワークの出力においてユビキタスなコンポーネントであり、中間層もますます多くなっている。
本稿では,ニューラルネットワークや他のMLモデルのキャラクタリゼーションのための凸最適化式と互換性のある,ソフトマックス関数上の凸下界と凹上界を提供する。
論文 参考訳(メタデータ) (2023-03-03T05:07:02Z) - The Representation Power of Neural Networks: Breaking the Curse of
Dimensionality [0.0]
浅層および深層ニューラルネットワークの量に対する上限を証明します。
我々はさらに、これらの境界がコロボフ函数を近似するために必要となる連続関数近似器の最小パラメータ数にほぼ一致することを証明した。
論文 参考訳(メタデータ) (2020-12-10T04:44:07Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。