論文の概要: Universal Approximation Theorem for Input-Connected Multilayer Perceptrons
- arxiv url: http://arxiv.org/abs/2601.14026v1
- Date: Tue, 20 Jan 2026 14:48:45 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-21 22:47:23.358078
- Title: Universal Approximation Theorem for Input-Connected Multilayer Perceptrons
- Title(参考訳): 入力結合型多層パーセプトロンの普遍近似理論
- Authors: Vugar Ismailov,
- Abstract要約: 入力結合型多層パーセプトロン (IC-MLP) は、各隠れたニューロンが受信するフィードフォワードニューラルネットワークアーキテクチャであり、前層の出力に加えて、生の入力から直接アフィン接続を行う。
我々は、深い IC-MLP が実直線の閉区間上の任意の連続函数を近似できることを示す普遍近似定理を証明し、活性化関数が非線形である場合に限る。
次に、解析をベクトル値入力に拡張し、$mathbbRn$ のコンパクト部分集合上の連続函数に対する対応する普遍近似定理を確立する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We introduce the Input-Connected Multilayer Perceptron (IC-MLP), a feedforward neural network architecture in which each hidden neuron receives, in addition to the outputs of the preceding layer, a direct affine connection from the raw input. We first study this architecture in the univariate setting and give an explicit and systematic description of IC-MLPs with an arbitrary finite number of hidden layers, including iterated formulas for the network functions. In this setting, we prove a universal approximation theorem showing that deep IC-MLPs can approximate any continuous function on a closed interval of the real line if and only if the activation function is nonlinear. We then extend the analysis to vector-valued inputs and establish a corresponding universal approximation theorem for continuous functions on compact subsets of $\mathbb{R}^n$.
- Abstract(参考訳): 入力結合型多層パーセプトロン (IC-MLP) は、各隠れたニューロンが受信するフィードフォワードニューラルネットワークアーキテクチャであり、前層の出力に加えて、生の入力から直接アフィン接続を行う。
まず、このアーキテクチャを単変量条件で研究し、ネットワーク関数の反復式を含む、任意の有限個の隠蔽層を持つIC-MLPを明示的かつ体系的に記述する。
この設定では、深い IC-MLP が実線の閉区間上の任意の連続函数を近似できることを示す普遍近似定理が、活性化関数が非線形である場合に限り証明される。
次に、解析をベクトル値入力に拡張し、$\mathbb{R}^n$ のコンパクト部分集合上の連続函数に対する対応する普遍近似定理を確立する。
関連論文リスト
- Universal approximation results for neural networks with non-polynomial activation function over non-compact domains [3.3379026542599934]
単一隠れ層フィードフォワードニューラルネットワークの普遍近似特性をコンパクト領域を超えて拡張する。
活性化関数が非多項式であると仮定することにより、ユークリッド空間の非コンパクト部分集合上で定義される函数空間内での普遍近似結果を確立する。
論文 参考訳(メタデータ) (2024-10-18T09:53:20Z) - Generalized Activation via Multivariate Projection [46.837481855573145]
活性化関数はニューラルネットワークに非線形性を導入するのに不可欠である。
我々は、ReLU を R から非負半直線 R+ への射影とみなす。
一般化された射影作用素でReLUを2次錐(SOC)射影のような凸錐に置換することでReLUを拡張する。
論文 参考訳(メタデータ) (2023-09-29T12:44:27Z) - Data Topology-Dependent Upper Bounds of Neural Network Widths [52.58441144171022]
まず、3層ニューラルネットワークがコンパクトな集合上のインジケータ関数を近似するように設計可能であることを示す。
その後、これは単純複体へと拡張され、その位相構造に基づいて幅の上界が導かれる。
トポロジカルアプローチを用いて3層ReLUネットワークの普遍近似特性を証明した。
論文 参考訳(メタデータ) (2023-05-25T14:17:15Z) - A Functional-Space Mean-Field Theory of Partially-Trained Three-Layer
Neural Networks [49.870593940818715]
本稿では,第1層がランダムで固定された3層NNモデルの無限幅限界について検討する。
我々の理論はモデルの異なるスケーリング選択に対応しており、結果としてMF制限の2つの条件が顕著な振舞いを示す。
論文 参考訳(メタデータ) (2022-10-28T17:26:27Z) - On Feature Learning in Neural Networks with Global Convergence
Guarantees [49.870593940818715]
勾配流(GF)を用いた広帯域ニューラルネットワーク(NN)の最適化について検討する。
入力次元がトレーニングセットのサイズ以下である場合、トレーニング損失はGFの下での線形速度で0に収束することを示す。
また、ニューラル・タンジェント・カーネル(NTK)システムとは異なり、我々の多層モデルは特徴学習を示し、NTKモデルよりも優れた一般化性能が得られることを実証的に示す。
論文 参考訳(メタデータ) (2022-04-22T15:56:43Z) - Quantitative Rates and Fundamental Obstructions to Non-Euclidean
Universal Approximation with Deep Narrow Feed-Forward Networks [3.8073142980733]
我々は,「深い幾何学的フィードフォワードニューラルネットワーク」に必要な狭い層数を定量化する。
グローバルとローカルの両方のユニバーサル近似保証は、null-homotopic関数を近似する場合にのみ一致することが分かりました。
論文 参考訳(メタデータ) (2021-01-13T23:29:40Z) - A Functional Perspective on Learning Symmetric Functions with Neural
Networks [48.80300074254758]
本研究では,測定値に基づいて定義されたニューラルネットワークの学習と表現について検討する。
正規化の異なる選択の下で近似と一般化境界を確立する。
得られたモデルは効率よく学習でき、入力サイズにまたがる一般化保証を享受できる。
論文 参考訳(メタデータ) (2020-08-16T16:34:33Z) - Universal Approximation Power of Deep Residual Neural Networks via
Nonlinear Control Theory [9.210074587720172]
我々は、幾何学的非線形制御により、ディープ残差ニューラルネットワークの普遍近似能力を説明する。
残余ネットワークと制御システムとのリンクを確立する最近の研究に触発されて、残余ネットワークが普遍近似の力を持つための一般的な条件を提供する。
論文 参考訳(メタデータ) (2020-07-12T14:53:30Z) - Minimum Width for Universal Approximation [91.02689252671291]
我々は、$Lp$関数の普遍近似に必要な最小幅がちょうど$maxd_x+1,d_y$であることを証明する。
また、同じ結論がReLUと一様近似に当てはまるのではなく、追加のしきい値アクティベーション関数で成り立つことを証明している。
論文 参考訳(メタデータ) (2020-06-16T01:24:21Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。