論文の概要: Max-Min Neural Network Operators For Approximation of Multivariate Functions
- arxiv url: http://arxiv.org/abs/2601.07886v1
- Date: Mon, 12 Jan 2026 06:14:05 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-14 18:27:18.895977
- Title: Max-Min Neural Network Operators For Approximation of Multivariate Functions
- Title(参考訳): 多変量関数近似のための最大最小ニューラルネットワーク演算子
- Authors: Abhishek Yadav, Uaday Singh, Feng Dai,
- Abstract要約: 我々は、最大最小のニューラルネットワーク演算子による近似のためのフレームワークを開発する。
点および一様収束定理を確立し、近似の順序に対する推定を導出する。
- 参考スコア(独自算出の注目度): 4.5657111459153885
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: In this paper, we develop a multivariate framework for approximation by max-min neural network operators. Building on the recent advances in approximation theory by neural network operators, particularly, the univariate max-min operators, we propose and analyze new multivariate operators activated by sigmoidal functions. We establish pointwise and uniform convergence theorems and derive quantitative estimates for the order of approximation via modulus of continuity and multivariate generalized absolute moment. Our results demonstrate that multivariate max-min structure of operators, besides their algebraic elegance, provide efficient and stable approximation tools in both theoretical and applied settings.
- Abstract(参考訳): 本稿では,最大最小のニューラルネットワーク演算子による近似のための多変量フレームワークを開発する。
ニューラルネットワーク演算子,特に一変量極小演算子による近似理論の最近の進歩に基づいて,シグモダル関数によって活性化される新しい多変量演算子を提案し,解析する。
点および一様収束定理を確立し、連続性のモジュラーと多変量一般化された絶対モーメントによる近似の順序の定量的推定を導出する。
以上の結果から,演算子の多変量最大値構造は代数的エレガンスに加えて,理論的および応用的両方の条件下で,効率的かつ安定した近似ツールを提供することが示された。
関連論文リスト
- Approximation Capabilities of Feedforward Neural Networks with GELU Activations [6.488575826304024]
関数とその導関数を任意の所定の順序まで同時に保持する近似誤差を導出する。
境界は、多変量、指数関数、相互関数を含む基本函数に適用される。
ネットワークサイズ,重み度,動作を無限大で報告する。
論文 参考訳(メタデータ) (2025-12-25T17:56:44Z) - A Deep Learning Framework for Multi-Operator Learning: Architectures and Approximation Theory [2.2731895181875346]
本研究では,演算子の集合を学習する問題について検討し,理論的および経験的進展を両立させる。
1つのネットワークがパラメトリック関数によってパラメータ化された演算子の連続体を表す多重演算子学習と、2つの個別の演算子を学習し、各演算子を独立に学習する2つの条件を区別する。
全体として、この研究は複数の演算子にまたがるスケーラブルな演算子学習の統一的理論と実践的基盤を確立する。
論文 参考訳(メタデータ) (2025-10-29T10:52:02Z) - Neural Optimal Transport Meets Multivariate Conformal Prediction [58.43397908730771]
条件付きベクトル回帰(CVQR)のためのフレームワークを提案する。
CVQRは、ニューラルネットワークの最適輸送と量子化された最適化を組み合わせて、予測に適用する。
論文 参考訳(メタデータ) (2025-09-29T19:50:19Z) - Convergence Analysis of Max-Min Exponential Neural Network Operators in Orlicz Space [0.0]
指数型ニューラルネットワーク演算子を用いた近似関数に対するMax Minアプローチを提案する。
単変数関数に対する点収束と一様収束について検討する。
適切なカーネルとシグモダルアクティベーション関数を通して関数の近似誤差を記述するためのグラフィカルな表現を提供する。
論文 参考訳(メタデータ) (2025-08-14T00:30:56Z) - Statistical Inference for Temporal Difference Learning with Linear Function Approximation [55.80276145563105]
The statistics properties of Temporal difference learning with Polyak-Ruppert averaging。
3つの理論的な貢献により、現在の最先端の成果が向上する。
論文 参考訳(メタデータ) (2024-10-21T15:34:44Z) - Chebyshev approximation and composition of functions in matrix product states for quantum-inspired numerical analysis [0.0]
解析的かつ高度に微分可能な関数をMPSチェビシェフ補間子として表現するために,反復的なチェビシェフ展開とクレショー評価を用いるアルゴリズムを提案する。
これは高微分可能な函数に対する急速な収束を示し、理論的な予測と整合し、多次元のシナリオに効率的に一般化する。
論文 参考訳(メタデータ) (2024-07-12T18:00:06Z) - Multi-Grid Tensorized Fourier Neural Operator for High-Resolution PDEs [93.82811501035569]
本稿では,メモリ要求を低減し,より一般化したデータ効率・並列化可能な演算子学習手法を提案する。
MG-TFNOは、実世界の実世界の現象の局所的構造と大域的構造を活用することで、大規模な分解能にスケールする。
乱流ナビエ・ストークス方程式において150倍以上の圧縮で誤差の半分以下を達成できる優れた性能を示す。
論文 参考訳(メタデータ) (2023-09-29T20:18:52Z) - Neural Operator: Learning Maps Between Function Spaces [75.93843876663128]
本稿では,無限次元関数空間間を写像する演算子,いわゆるニューラル演算子を学習するためのニューラルネットワークの一般化を提案する。
提案したニューラル作用素に対して普遍近似定理を証明し、任意の非線形連続作用素を近似することができることを示す。
ニューラル作用素に対する重要な応用は、偏微分方程式の解作用素に対する代理写像を学習することである。
論文 参考訳(メタデータ) (2021-08-19T03:56:49Z) - Communication-Efficient Distributed Stochastic AUC Maximization with
Deep Neural Networks [50.42141893913188]
本稿では,ニューラルネットワークを用いた大規模AUCのための分散変数について検討する。
我々のモデルは通信ラウンドをはるかに少なくし、理論上はまだ多くの通信ラウンドを必要としています。
いくつかのデータセットに対する実験は、我々の理論の有効性を示し、我々の理論を裏付けるものである。
論文 参考訳(メタデータ) (2020-05-05T18:08:23Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。