論文の概要: Convergence Analysis of Max-Min Exponential Neural Network Operators in Orlicz Space
- arxiv url: http://arxiv.org/abs/2508.10248v1
- Date: Thu, 14 Aug 2025 00:30:56 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-08-15 22:24:48.142014
- Title: Convergence Analysis of Max-Min Exponential Neural Network Operators in Orlicz Space
- Title(参考訳): オーリッツ空間における最大最小指数ニューラルネット演算子の収束解析
- Authors: Satyaranjan Pradhan, Madan Mohan Soren,
- Abstract要約: 指数型ニューラルネットワーク演算子を用いた近似関数に対するMax Minアプローチを提案する。
単変数関数に対する点収束と一様収束について検討する。
適切なカーネルとシグモダルアクティベーション関数を通して関数の近似誤差を記述するためのグラフィカルな表現を提供する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: In this current work, we propose a Max Min approach for approximating functions using exponential neural network operators. We extend this framework to develop the Max Min Kantorovich-type exponential neural network operators and investigate their approximation properties. We study both pointwise and uniform convergence for univariate functions. To analyze the order of convergence, we use the logarithmic modulus of continuity and estimate the corresponding rate of convergence. Furthermore, we examine the convergence behavior of the Max Min Kantorovich type exponential neural network operators within the Orlicz space setting. We provide some graphical representations to illustrate the approximation error of the function through suitable kernel and sigmoidal activation functions.
- Abstract(参考訳): 本稿では,指数型ニューラルネットワーク演算子を用いた関数近似のためのMax Minアプローチを提案する。
我々は、このフレームワークを拡張して、Max Min Kantorovich型指数型ニューラルネットワーク演算子を開発し、それらの近似特性について検討する。
単変数関数に対する点収束と一様収束について検討する。
収束の順序を解析するために、連続性の対数的係数を使い、収束の対応する速度を推定する。
さらに,最大ミン・カントロビッチ型指数型ニューラルネットワーク演算子のオルリッツ空間における収束挙動について検討した。
適切なカーネルとシグモダルアクティベーション関数を通して関数の近似誤差を記述するためのグラフィカルな表現を提供する。
関連論文リスト
- Max-Min Neural Network Operators For Approximation of Multivariate Functions [4.5657111459153885]
我々は、最大最小のニューラルネットワーク演算子による近似のためのフレームワークを開発する。
点および一様収束定理を確立し、近似の順序に対する推定を導出する。
論文 参考訳(メタデータ) (2026-01-12T06:14:05Z) - Approximation Capabilities of Feedforward Neural Networks with GELU Activations [6.488575826304024]
関数とその導関数を任意の所定の順序まで同時に保持する近似誤差を導出する。
境界は、多変量、指数関数、相互関数を含む基本函数に適用される。
ネットワークサイズ,重み度,動作を無限大で報告する。
論文 参考訳(メタデータ) (2025-12-25T17:56:44Z) - Approximation Rates of Shallow Neural Networks: Barron Spaces, Activation Functions and Optimality Analysis [7.106210679849991]
これは、近似速度の次元への依存性と、バロン函数空間内で近似される函数の滑らかさに焦点をあてる。
我々は、バロン空間やソボレフ空間における関数の様々なノルムにおける最適近似率を確立し、次元性の呪いを確認する。
論文 参考訳(メタデータ) (2025-10-21T08:08:35Z) - Revolutionizing Fractional Calculus with Neural Networks: Voronovskaya-Damasclin Theory for Next-Generation AI Systems [0.0]
この研究は、対称性と双曲型摂動関数によって活性化されるニューラルネットワーク演算子に対する厳密な収束率を導入する。
古典近似理論をカプトー微分を通じて分数計算に拡張する。
論文 参考訳(メタデータ) (2025-04-01T21:03:00Z) - Extension of Symmetrized Neural Network Operators with Fractional and Mixed Activation Functions [0.0]
本稿では, 分数および混合活性化関数を組み込むことにより, 対称性を持つニューラルネットワーク演算子への新たな拡張を提案する。
本フレームワークでは、アクティベーション関数に分数指数を導入し、適応的な非線形近似を精度良く実現する。
論文 参考訳(メタデータ) (2025-01-17T14:24:25Z) - Operator Learning of Lipschitz Operators: An Information-Theoretic Perspective [2.375038919274297]
この研究は、リプシッツ連続作用素の一般クラスに対する神経作用素近似の複雑さに対処する。
我々の主な貢献は、2つの近似設定におけるリプシッツ作用素の計量エントロピーの低い境界を確立することである。
使用したアクティベーション関数にかかわらず、近似精度が$epsilon$に達する神経オペレーターアーキテクチャは、$epsilon-1$で指数関数的に大きいサイズでなければならない。
論文 参考訳(メタデータ) (2024-06-26T23:36:46Z) - A Mean-Field Analysis of Neural Stochastic Gradient Descent-Ascent for Functional Minimax Optimization [90.87444114491116]
本稿では,超パラメトリック化された2層ニューラルネットワークの無限次元関数クラス上で定義される最小最適化問題について検討する。
i) 勾配降下指数アルゴリズムの収束と, (ii) ニューラルネットワークの表現学習に対処する。
その結果、ニューラルネットワークによって誘導される特徴表現は、ワッサーシュタイン距離で測定された$O(alpha-1)$で初期表現から逸脱することが許された。
論文 参考訳(メタデータ) (2024-04-18T16:46:08Z) - Promises and Pitfalls of the Linearized Laplace in Bayesian Optimization [73.80101701431103]
線形化ラプラス近似(LLA)はベイズニューラルネットワークの構築に有効で効率的であることが示されている。
ベイズ最適化におけるLLAの有用性について検討し,その性能と柔軟性を強調した。
論文 参考訳(メタデータ) (2023-04-17T14:23:43Z) - Convex Bounds on the Softmax Function with Applications to Robustness
Verification [69.09991317119679]
ソフトマックス関数は、ニューラルネットワークの出力においてユビキタスなコンポーネントであり、中間層もますます多くなっている。
本稿では,ニューラルネットワークや他のMLモデルのキャラクタリゼーションのための凸最適化式と互換性のある,ソフトマックス関数上の凸下界と凹上界を提供する。
論文 参考訳(メタデータ) (2023-03-03T05:07:02Z) - Convex Analysis of the Mean Field Langevin Dynamics [49.66486092259375]
平均場ランゲヴィン力学の収束速度解析について述べる。
ダイナミックスに付随する$p_q$により、凸最適化において古典的な結果と平行な収束理論を開発できる。
論文 参考訳(メタデータ) (2022-01-25T17:13:56Z) - The Representation Power of Neural Networks: Breaking the Curse of
Dimensionality [0.0]
浅層および深層ニューラルネットワークの量に対する上限を証明します。
我々はさらに、これらの境界がコロボフ函数を近似するために必要となる連続関数近似器の最小パラメータ数にほぼ一致することを証明した。
論文 参考訳(メタデータ) (2020-12-10T04:44:07Z) - Provably Efficient Neural Estimation of Structural Equation Model: An
Adversarial Approach [144.21892195917758]
一般化構造方程式モデル(SEM)のクラスにおける推定について検討する。
線形作用素方程式をmin-maxゲームとして定式化し、ニューラルネットワーク(NN)でパラメータ化し、勾配勾配を用いてニューラルネットワークのパラメータを学習する。
提案手法は,サンプル分割を必要とせず,確固とした収束性を持つNNをベースとしたSEMの抽出可能な推定手順を初めて提供する。
論文 参考訳(メタデータ) (2020-07-02T17:55:47Z) - Space of Functions Computed by Deep-Layered Machines [74.13735716675987]
深層ニューラルネットワークやブール回路を含むランダム層マシンによって計算される関数の空間について検討する。
繰り返しおよび層依存アーキテクチャ上で計算されたブール関数の分布を調べた結果、両方のモデルで同じであることが判明した。
論文 参考訳(メタデータ) (2020-04-19T18:31:03Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。