論文の概要: An elementary proof of a universal approximation theorem
- arxiv url: http://arxiv.org/abs/2406.10002v1
- Date: Fri, 14 Jun 2024 13:16:48 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-06-17 13:35:39.761387
- Title: An elementary proof of a universal approximation theorem
- Title(参考訳): 普遍近似定理の初等証明
- Authors: Chris Monico,
- Abstract要約: 本稿では、3つの隠れた層を持つニューラルネットワークに対する普遍近似定理の基本的な証明と、連続的、有界な活性化関数の増大について述べる。
結果は最もよく知られた結果よりも弱いが、学部分析以外の機械は使われていないという意味では初等的な証明である。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: In this short note, we give an elementary proof of a universal approximation theorem for neural networks with three hidden layers and increasing, continuous, bounded activation function. The result is weaker than the best known results, but the proof is elementary in the sense that no machinery beyond undergraduate analysis is used.
- Abstract(参考訳): 本稿では、3つの隠蔽層を持つニューラルネットワークに対する普遍近似定理の基本的な証明と、連続的、有界な活性化関数の増大について述べる。
結果は最もよく知られた結果よりも弱いが、学部分析以外の機械は使われていないという意味では初等的な証明である。
関連論文リスト
- A Formal Proof of a Continued Fraction Conjecture for $π$ Originating from the Ramanujan Machine [2.579369112489757]
我々は、/4 を表す非正準連続分数のクラスに対する公式な解析的証明を提供する。
これらのアイデンティティは、同値変換の離散列によって導出可能であることを示す。
この研究は、そのようなアルゴリズムによって発見されたアイデンティティが孤立した数値アーティファクトではなく、幾何変換の古典理論に深く根ざしていることを示している。
論文 参考訳(メタデータ) (2026-01-13T11:38:44Z) - Formal Analysis of the Sigmoid Function and Formal Proof of the Universal Approximation Theorem [0.2599882743586163]
我々はシグモイド関数の形式化を示し、その単調性、滑らか性、高階微分を証明した。
本稿では、シグモダルアクティベーション関数を持つニューラルネットワークが、任意の連続関数をコンパクトな間隔で近似できることを示すユニバーサル近似定理の構成的証明を提案する。
我々の研究はニューラルネットワークの信頼性を高め、検証され信頼性の高い機械学習というより広い目標に貢献する。
論文 参考訳(メタデータ) (2025-12-03T10:16:02Z) - A General Constructive Upper Bound on Shallow Neural Nets Complexity [0.0]
我々は、与えられた精度でコンパクトなセット上の連続関数を近似するために、浅いニューラルネットワークに必要なニューロンの数に上限を与える。
ストーン=ワイエルシュトラスの定理の特定の証明にインスパイアされたこの方法は、この性質の以前の境界よりも構成的でより一般的なものである。
論文 参考訳(メタデータ) (2025-10-07T18:40:40Z) - DeepTheorem: Advancing LLM Reasoning for Theorem Proving Through Natural Language and Reinforcement Learning [67.93945726549289]
DeepTheoremは、数学的推論を強化するために自然言語を活用する包括的な非公式な定理証明フレームワークである。
DeepTheoremには、121Kの高品質なIMOレベルの非公式な定理と証明からなる大規模なベンチマークデータセットが含まれている。
我々は、証明された定理の変種を利用して堅牢な数学的推論を動機付けることによって、非公式な定理証明に適した新しい強化学習戦略(RL-Zero)を考案する。
論文 参考訳(メタデータ) (2025-05-29T17:59:39Z) - A Survey on Universal Approximation Theorems [0.0]
本稿ではニューラルネットワーク(NN)の近似能力に関する様々な定理について論じる。
本稿では,関数近似の予備結果から得られたUATの体系的概要について述べる。
UATの理論的および数値的な側面は、任意の幅と深さの両方からカバーされている。
論文 参考訳(メタデータ) (2024-07-17T13:21:53Z) - Proving Theorems Recursively [80.42431358105482]
本稿では、定理をレベル・バイ・レベルで証明するPOETRYを提案する。
従来のステップバイステップメソッドとは異なり、POETRYは各レベルで証明のスケッチを検索する。
また,POETRYが検出した最大証明長は10~26。
論文 参考訳(メタデータ) (2024-05-23T10:35:08Z) - Machine Learning of the Prime Distribution [49.84018914962972]
素数の可学習性に関するヤン・フイ・ヘの実験的な観察を説明する理論的論証を提供する。
我々はまた、ErdHos-Kac法が現在の機械学習技術によって発見される可能性は極めて低いと仮定している。
論文 参考訳(メタデータ) (2024-03-19T09:47:54Z) - Online Learning with Adversaries: A Differential-Inclusion Analysis [52.43460995467893]
我々は,完全に非同期なオンラインフェデレート学習のための観察行列ベースのフレームワークを提案する。
我々の主な結果は、提案アルゴリズムがほぼ確実に所望の平均$mu.$に収束することである。
新たな差分包摂型2時間スケール解析を用いて,この収束を導出する。
論文 参考訳(メタデータ) (2023-04-04T04:32:29Z) - Qualitative neural network approximation over R and C: Elementary proofs
for analytic and polynomial activation [0.0]
解析的アクティベーション関数を持つ深部ニューラルネットワークと浅部ニューラルネットワークのクラスで近似を証明した。
活性化関数を持つ大深度ネットワークの完全連結および残留ネットワークは,任意の幅要件下で近似可能であることを示す。
論文 参考訳(メタデータ) (2022-03-25T01:36:13Z) - Predicting Unreliable Predictions by Shattering a Neural Network [145.3823991041987]
線形ニューラルネットワークは、サブファンクションに分割することができる。
サブファンクションは、独自のアクティベーションパターン、ドメイン、経験的エラーを持っている。
完全なネットワークに対する経験的エラーは、サブファンクションに対する期待として記述できる。
論文 参考訳(メタデータ) (2021-06-15T18:34:41Z) - Learning to Guide a Saturation-Based Theorem Prover [9.228237801323042]
TRAILは、ニューラルネットワーク内で証明される飽和に基づく定理の中核要素を特徴付ける、深い学習に基づく定理証明のアプローチである。
我々の知る限りでは、TRAILは最先端の伝統的な定理証明器の性能を超える最初の強化学習に基づくアプローチである。
論文 参考訳(メタデータ) (2021-06-07T18:35:57Z) - Tensor Programs III: Neural Matrix Laws [23.166601000371728]
ランダムマトリクス理論では、NNの幅が無限大になる傾向があるため、ランダムにNNの(事前の活性化)はウェイトから*独立となる。
ここでは、Yang [50,51] で導入されたような、任意のカーネルプログラムに対するマスター定理を証明し、それらの作品で証明されたマスター定理を一般化することによって、FIPを示す。
論文 参考訳(メタデータ) (2020-09-22T16:59:24Z) - Logical Neural Networks [51.46602187496816]
ニューラルネットワーク(学習)と記号論理(知識と推論)の両方の重要な特性をシームレスに提供する新しいフレームワークを提案する。
すべてのニューロンは、重み付けされた実数値論理における公式の構成要素としての意味を持ち、非常に解釈不能な非絡み合い表現をもたらす。
推論は事前に定義されたターゲット変数ではなく、オムニであり、論理的推論に対応する。
論文 参考訳(メタデータ) (2020-06-23T16:55:45Z) - Coupling-based Invertible Neural Networks Are Universal Diffeomorphism
Approximators [72.62940905965267]
結合フロー(CF-INN)に基づく可逆ニューラルネットワークは、画像合成や表現学習など、さまざまな機械学習応用を有する。
CF-INNは可逆関数に対する普遍近似器か?
我々は、ある微分同相類に対する普遍性の同値性を示す一般的な定理を証明する。
論文 参考訳(メタデータ) (2020-06-20T02:07:37Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。