論文の概要: Triangulating PL functions and the existence of efficient ReLU DNNs
- arxiv url: http://arxiv.org/abs/2505.07137v1
- Date: Sun, 11 May 2025 22:20:16 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-13 20:21:49.22296
- Title: Triangulating PL functions and the existence of efficient ReLU DNNs
- Title(参考訳): PL関数の三角測量と効率的なReLU DNNの存在
- Authors: Danny Calegari,
- Abstract要約: コンパクトなサポートを持つ任意のピースワイズ線型関数 $f:Rd から R$ へのポリヘドロン $P$ は、いわゆる単純関数の和としての表現を持つことを示す。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/publicdomain/zero/1.0/
- Abstract: We show that every piecewise linear function $f:R^d \to R$ with compact support a polyhedron $P$ has a representation as a sum of so-called `simplex functions'. Such representations arise from degree 1 triangulations of the relative homology class (in $R^{d+1}$) bounded by $P$ and the graph of $f$, and give a short elementary proof of the existence of efficient universal ReLU neural networks that simultaneously compute all such functions $f$ of bounded complexity.
- Abstract(参考訳): コンパクトなサポートを持つすべてのピースワイズ線型関数 $f:R^d \to R$ が、ポリヘドロン $P$ はいわゆる「複素関数」の和としての表現を持つことを示す。
そのような表現は、$P$で有界な相対ホモロジークラスの次数1($R^{d+1}$)と$f$のグラフから生じ、そのようなすべての函数を同時に計算する効率的な普遍ReLUニューラルネットワークの存在の短い初等証明を与える。
関連論文リスト
- $p$-Adic Polynomial Regression as Alternative to Neural Network for Approximating $p$-Adic Functions of Many Variables [55.2480439325792]
任意の精度で連続関数を近似できる回帰モデルを構築している。
提案モデルは、ニューラルネットワークアーキテクチャに基づく$p$-adicモデルの簡単な代替と見なすことができる。
論文 参考訳(メタデータ) (2025-03-30T15:42:08Z) - Neural Networks and (Virtual) Extended Formulations [5.762677915745415]
私たちは、$P$を最適化するニューラルネットワークのサイズに対して、より低い境界を証明します。
我々は、$mathrmxc(P)$が任意のモノトーンや入力ニューラルネットワークのサイズの低い境界であることを示し、$P$を超える線形最適化問題を解く。
論文 参考訳(メタデータ) (2024-11-05T11:12:11Z) - Representing Piecewise-Linear Functions by Functions with Minimal Arity [0.5266869303483376]
入力空間 $mathbbRn$ の関数 $F$ によるテッセルレーションは、$max$ 関数の引数の数に直結することを示す。
論文 参考訳(メタデータ) (2024-06-04T15:39:08Z) - A Minimal Control Family of Dynamical Systems for Universal Approximation [5.217870815854702]
普遍近似特性(UAP)は、ディープラーニングにおいて基本的な位置を占める。
コンパクト領域上の連続函数を近似できることを示す。
この結果から,ニューラルネットワークと制御系との近似力の相関関係が明らかとなった。
論文 参考訳(メタデータ) (2023-12-20T10:36:55Z) - Shallow neural network representation of polynomials [91.3755431537592]
d+1+sum_r=2Rbinomr+d-1d-1[binomr+d-1d-1d-1[binomr+d-1d-1d-1]binomr+d-1d-1d-1[binomr+d-1d-1d-1]binomr+d-1d-1d-1]
論文 参考訳(メタデータ) (2022-08-17T08:14:52Z) - On minimal representations of shallow ReLU networks [0.0]
f$の最小表現は$n$、$n+1$または$n+2$のどちらかを使用する。
特に入力層が一次元の場合、最小表現は常に少なくとも$n+1$のニューロンで使用されるが、高次元設定では$n+2$のニューロンを必要とする関数が存在する。
論文 参考訳(メタデータ) (2021-08-12T10:22:24Z) - Quantitative approximation results for complex-valued neural networks [0.0]
モフレル活性化関数 $sigma(z) = mathrmrelu(|z|) を持つ複素値ニューラルネットワークは、$mathbbcd$ のコンパクト部分集合上で正則性の複素値関数 $cn$ を均一に近似し、近似速度の明示的な境界を与える。
論文 参考訳(メタデータ) (2021-02-25T18:57:58Z) - Finding Global Minima via Kernel Approximations [90.42048080064849]
関数評価のみに基づく滑らかな関数のグローバル最小化を考える。
本稿では,近似関数を共同でモデル化し,大域的最小値を求める手法を検討する。
論文 参考訳(メタデータ) (2020-12-22T12:59:30Z) - On Function Approximation in Reinforcement Learning: Optimism in the
Face of Large State Spaces [208.67848059021915]
強化学習のコアにおける探索・探索トレードオフについて検討する。
特に、関数クラス $mathcalF$ の複雑さが関数の複雑さを特徴づけていることを証明する。
私たちの後悔の限界はエピソードの数とは無関係です。
論文 参考訳(メタデータ) (2020-11-09T18:32:22Z) - On the Modularity of Hypernetworks [103.1147622394852]
構造化対象関数の場合、ハイパーネットワークにおけるトレーニング可能なパラメータの総数は、標準ニューラルネットワークのトレーニング可能なパラメータの数や埋め込み法よりも桁違いに小さいことを示す。
論文 参考訳(メタデータ) (2020-02-23T22:51:52Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。