論文の概要: Towards an Algebraic Framework For Approximating Functions Using Neural
Network Polynomials
- arxiv url: http://arxiv.org/abs/2402.01058v1
- Date: Thu, 1 Feb 2024 23:06:50 GMT
- ステータス: 処理完了
- システム内更新日: 2024-02-05 17:28:53.726751
- Title: Towards an Algebraic Framework For Approximating Functions Using Neural
Network Polynomials
- Title(参考訳): ニューラルネットワーク多項式を用いた近似関数の代数的枠組みに向けて
- Authors: Shakil Rafi, Joshua Lee Padgett, and Ukash Nakarmi
- Abstract要約: ニューラルネットワークオブジェクトのケースを作成し,すでに存在するニューラルネットワーク計算を拡張して,第2章で詳しく解説する。
私たちの目標は、確かに、ニューラルネットワーク、ニューラルネットワーク指数、シネ、コサインについて話すことは理にかなっており、特定のパラメータ、$q$、$varepsilon$の制限を受ける実数と実際に近似しているという意味では理にかなっていることです。
- 参考スコア(独自算出の注目度): 0.589889361990138
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We make the case for neural network objects and extend an already existing
neural network calculus explained in detail in Chapter 2 on \cite{bigbook}. Our
aim will be to show that, yes, indeed, it makes sense to talk about neural
network polynomials, neural network exponentials, sine, and cosines in the
sense that they do indeed approximate their real number counterparts subject to
limitations on certain of their parameters, $q$, and $\varepsilon$. While doing
this, we show that the parameter and depth growth are only polynomial on their
desired accuracy (defined as a 1-norm difference over $\mathbb{R}$), thereby
showing that this approach to approximating, where a neural network in some
sense has the structural properties of the function it is approximating is not
entire intractable.
- Abstract(参考訳): ニューラルネットワークオブジェクトのケースを作成し、すでに存在するニューラルネットワーク計算を拡張して、 \cite{bigbook}の第2章で詳しく説明している。
私たちの目標は、ニューラルネットワークの多項式、ニューラルネットワークの指数関数、sine、cosineについて、特定のパラメータの制限を受ける実数対応式を実際に近似しているという意味で、意味のあることを示すことです。
これにより、パラメータと深さの増大は所望の精度($\mathbb{r}$ に対する 1-ノルム差分として定義される)でのみ多項式であることが示され、この近似化のアプローチは、ある意味でニューラルネットワークが近似する関数の構造的性質をもっている場合、その近似化は必ずしも難解ではないことを示す。
関連論文リスト
- Optimal Neural Network Approximation for High-Dimensional Continuous Functions [5.748690310135373]
我々は、その近似において任意の精度を達成するために、少なくとも幅$d$、従って少なくとも$d$固有のニューロンを必要とする連続関数の族を示す。
これは、$mathcalO(d)$内在ニューロンの要求が、入力次元$d$と線形に成長するという意味で最適であることを示している。
論文 参考訳(メタデータ) (2024-09-04T01:18:55Z) - Nearest Neighbor Representations of Neural Circuits [12.221087476416056]
Nearest Neighbor (NN)表現は計算の新しいアプローチである。
我々は、そのNN表現に対して、ビット数に明示的な境界を持つ明示的な構成を提供する。
例えば、凸多面体のNN表現(閾値ゲートのAND)、IP2、閾値ゲートのOR、線形または正確な決定リストなどがある。
論文 参考訳(メタデータ) (2024-02-13T19:38:01Z) - Commutative Width and Depth Scaling in Deep Neural Networks [6.019182604573028]
本論文は,深部ニューラルネットワークにおける無限幅および深度限界の可換性に関するシリーズの2番目である。
我々は、正式に可換性フレームワークを導入、定義し、ニューラルネットワークの設計とスケーリングにその影響について論じる。
論文 参考訳(メタデータ) (2023-10-02T22:39:09Z) - Understanding Deep Neural Function Approximation in Reinforcement
Learning via $\epsilon$-Greedy Exploration [53.90873926758026]
本稿では、強化学習(RL)における深部神経機能近似の理論的研究について述べる。
我々は、Besov(およびBarron)関数空間によって与えられるディープ(および2層)ニューラルネットワークによる$epsilon$-greedy探索により、バリューベースのアルゴリズムに焦点を当てる。
我々の解析は、ある平均測度$mu$の上の$L2(mathrmdmu)$-integrable空間における時間差誤差を再構成し、非イド設定の下で一般化問題に変換する。
論文 参考訳(メタデータ) (2022-09-15T15:42:47Z) - On the Neural Tangent Kernel Analysis of Randomly Pruned Neural Networks [91.3755431537592]
ニューラルネットワークのニューラルカーネル(NTK)に重みのランダムプルーニングが及ぼす影響について検討する。
特に、この研究は、完全に接続されたニューラルネットワークとそのランダムに切断されたバージョン間のNTKの等価性を確立する。
論文 参考訳(メタデータ) (2022-03-27T15:22:19Z) - Optimal Approximation with Sparse Neural Networks and Applications [0.0]
深い疎結合ニューラルネットワークを用いて、関数クラスの複雑性を$L(mathbb Rd)$で測定する。
また、ニューラルネットワークを誘導する関数の可算コレクションである表現システムについても紹介する。
次に、レート歪曲理論とウェッジレット構成を用いて、$beta$マンガ的関数と呼ばれるクラスの複雑性を分析する。
論文 参考訳(メタデータ) (2021-08-14T05:14:13Z) - The Separation Capacity of Random Neural Networks [78.25060223808936]
標準ガウス重みと一様分布バイアスを持つ十分に大きな2層ReLUネットワークは、この問題を高い確率で解くことができることを示す。
我々は、相互複雑性という新しい概念の観点から、データの関連構造を定量化する。
論文 参考訳(メタデータ) (2021-07-31T10:25:26Z) - Deep neural network approximation of analytic functions [91.3755431537592]
ニューラルネットワークの空間に エントロピーバウンド 片方向の線形活性化関数を持つ
我々は、ペナル化深部ニューラルネットワーク推定器の予測誤差に対するオラクルの不等式を導出する。
論文 参考訳(メタデータ) (2021-04-05T18:02:04Z) - Towards Understanding Hierarchical Learning: Benefits of Neural
Representations [160.33479656108926]
この研究で、中間的神経表現がニューラルネットワークにさらなる柔軟性をもたらすことを実証する。
提案手法は, 生の入力と比較して, サンプルの複雑度を向上できることを示す。
この結果から, 深度が深層学習においてなぜ重要かという新たな視点が得られた。
論文 参考訳(メタデータ) (2020-06-24T02:44:54Z) - Deep Polynomial Neural Networks [77.70761658507507]
$Pi$Netsは拡張に基づいた関数近似の新しいクラスである。
$Pi$Netsは、画像生成、顔検証、および3Dメッシュ表現学習という3つの困難なタスクで、最先端の結果を生成する。
論文 参考訳(メタデータ) (2020-06-20T16:23:32Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。