論文の概要: A General Method for Proving Networks Universal Approximation Property
- arxiv url: http://arxiv.org/abs/2511.07857v1
- Date: Wed, 12 Nov 2025 01:24:24 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-12 20:17:03.509233
- Title: A General Method for Proving Networks Universal Approximation Property
- Title(参考訳): ネットワークの普遍近似特性の一般証明法
- Authors: Wei Wang,
- Abstract要約: 本稿では、普遍近似を証明するための汎用的でモジュラーなフレームワークを提案する。
このようなモジュールからなるディープネットワークは、本質的に普遍近似特性を保っていることを示す。
- 参考スコア(独自算出の注目度): 3.565474315629056
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Deep learning architectures are highly diverse. To prove their universal approximation properties, existing works typically rely on model-specific proofs. Generally, they construct a dedicated mathematical formulation for each architecture (e.g., fully connected networks, CNNs, or Transformers) and then prove their universal approximability. However, this approach suffers from two major limitations: first, every newly proposed architecture often requires a completely new proof from scratch; second, these proofs are largely isolated from one another, lacking a common analytical foundation. This not only incurs significant redundancy but also hinders unified theoretical understanding across different network families. To address these issues, this paper proposes a general and modular framework for proving universal approximation. We define a basic building block (comprising one or multiple layers) that possesses the universal approximation property as a Universal Approximation Module (UAM). Under this condition, we show that any deep network composed of such modules inherently retains the universal approximation property. Moreover, the overall approximation process can be interpreted as a progressive refinement across modules. This perspective not only unifies the analysis of diverse architectures but also enables a step-by-step understanding of how expressive power evolves through the network.
- Abstract(参考訳): ディープラーニングアーキテクチャは非常に多様です。
それらの普遍近似特性を証明するために、既存の研究は通常、モデル固有の証明に依存している。
一般に、各アーキテクチャ(例えば、完全に接続されたネットワーク、CNN、トランスフォーマー)に専用の数学的定式化を構築し、その普遍的な近似性を証明する。
しかし、このアプローチには2つの大きな制限がある: まず、新しく提案されたアーキテクチャは、しばしばスクラッチから完全に新しい証明を必要とする。
これは重大な冗長性を引き起こすだけでなく、異なるネットワークファミリー間の統一的な理論的理解を妨げる。
これらの問題に対処するために,普遍近似を証明するための汎用的かつモジュラーなフレームワークを提案する。
ユニバーサル近似モジュール (Universal Approximation Module, UAM) として, 普遍近似特性を有する基本構造ブロック(複数層からなる)を定義する。
この条件下では、そのような加群からなるディープネットワークは、本質的に普遍近似特性を保持する。
さらに、全体の近似過程は、モジュール間の進歩的な洗練と解釈できる。
この視点は、多様なアーキテクチャの分析を統一するだけでなく、ネットワークを通して表現力がどのように進化するかをステップバイステップで理解することを可能にする。
関連論文リスト
- On Universality of Deep Equivariant Networks [23.16940006451027]
等変ニューラルネットワークの普遍性は依然として稀である。
十分な深さまたは適切な読み出し層を追加することで、同変ネットワークはエントリワイド分離可能なシステム内で普遍性が得られることを示す。
論文 参考訳(メタデータ) (2025-10-17T16:51:31Z) - On Universality Classes of Equivariant Networks [9.137637807153464]
分離制約を超えた同変ニューラルネットワークの近似パワーについて検討する。
分離電力が表現力を完全に捉えていないことを示す。
浅い同変ネットワークが普遍性を達成できるような設定を同定する。
論文 参考訳(メタデータ) (2025-06-02T22:07:52Z) - Deep Ridgelet Transform and Unified Universality Theorem for Deep and Shallow Joint-Group-Equivariant Machines [15.67299102925013]
共同群同変特徴写像を備えた学習機械に対する構成的普遍近似定理を提案する。
我々の主定理はまた、浅いネットワークと深いネットワークの両方に対する普遍近似定理を統一する。
論文 参考訳(メタデータ) (2024-05-22T14:25:02Z) - Rotation Equivariant Proximal Operator for Deep Unfolding Methods in Image Restoration [62.41329042683779]
本稿では, 回転対称性を組み込んだ高精度な回転同変近位ネットワークを提案する。
本研究は, 回転対称性の先行を深く展開する枠組みに効果的に組み込む, 高精度な回転同変近位ネットワークを提案する。
論文 参考訳(メタデータ) (2023-12-25T11:53:06Z) - Monotone deep Boltzmann machines [86.50247625239406]
ディープボルツマンマシン(Deep Boltzmann Machine、DBM)は、双対エネルギー関数によって制御される多層確率モデルである。
我々は,各層で任意の自己接続が可能な新しい制限モデルであるモノトンDBMを開発した。
アクティベーションの特定の選択が、変動平均場解を与える固定点反復をもたらすことを示す。
論文 参考訳(メタデータ) (2023-07-11T03:02:44Z) - Universal approximation property of invertible neural networks [76.95927093274392]
Invertible Neural Network (INN) は、設計によって可逆性を持つニューラルネットワークアーキテクチャである。
その可逆性とヤコビアンのトラクタビリティのおかげで、IGNは確率的モデリング、生成的モデリング、表現的学習など、さまざまな機械学習応用がある。
論文 参考訳(メタデータ) (2022-04-15T10:45:26Z) - Compound Domain Generalization via Meta-Knowledge Encoding [55.22920476224671]
マルチモーダル分布を再正規化するために,スタイル駆動型ドメイン固有正規化(SDNorm)を導入する。
組込み空間における関係モデリングを行うために,プロトタイプ表現,クラスセントロイドを利用する。
4つの標準ドメイン一般化ベンチマークの実験により、COMENはドメインの監督なしに最先端のパフォーマンスを上回ることが判明した。
論文 参考訳(メタデータ) (2022-03-24T11:54:59Z) - Generalization by design: Shortcuts to Generalization in Deep Learning [7.751691910877239]
よい一般化は、新しい幾何正則化器につながる層上の有界スペクトル積によってもたらされることを示す。
理論によって裏付けられ、我々は「設計による一般化」が現実的に可能であり、優れた一般化がネットワークの構造にコード化されることをさらに実証する。
論文 参考訳(メタデータ) (2021-07-05T20:01:23Z) - Polynomial Networks in Deep Classifiers [55.90321402256631]
我々は深層ニューラルネットワークの研究を統一的な枠組みで行った。
私たちのフレームワークは、各モデルの誘導バイアスに関する洞察を提供します。
提案モデルの有効性を,標準画像および音声分類ベンチマークで評価した。
論文 参考訳(メタデータ) (2021-04-16T06:41:20Z) - Non-Euclidean Universal Approximation [4.18804572788063]
ニューラルネットワークの入力層と出力層の修正は、多くの場合、最も実践的な学習タスクの特異性を満たすために必要である。
アーキテクチャの連続関数をコンパクトな上で一様に近似する能力を保った特徴写像と読み出し写像を記述した一般的な条件を示す。
論文 参考訳(メタデータ) (2020-06-03T15:38:57Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。