論文の概要: On the space of coefficients of a Feed Forward Neural Network
- arxiv url: http://arxiv.org/abs/2109.03362v1
- Date: Tue, 7 Sep 2021 22:47:50 GMT
- ステータス: 処理完了
- システム内更新日: 2021-09-10 05:43:22.963207
- Title: On the space of coefficients of a Feed Forward Neural Network
- Title(参考訳): フィードフォワードニューラルネットワークの係数空間について
- Authors: Dinesh Valluri and Rory Campbell
- Abstract要約: ニューラルネットワークが一方向に線形に活性化されるような$mathcalN$を与えられた場合、等価な全てのニューラルネットワークを記述する係数の空間は半代数集合によって与えられる。
この結果は、与えられたピースワイド線型関数の異なる表現をタルスキ=セイデンベルグの定理を用いて研究することによって得られる。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We define and establish the conditions for `equivalent neural networks' -
neural networks with different weights, biases, and threshold functions that
result in the same associated function. We prove that given a neural network
$\mathcal{N}$ with piece-wise linear activation, the space of coefficients
describing all equivalent neural networks is given by a semialgebraic set. This
result is obtained by studying different representations of a given piece-wise
linear function using the Tarski-Seidenberg theorem.
- Abstract(参考訳): 重み,バイアス,しきい値関数の異なる'等価ニューラルネットワーク'ニューラルネットワーク'の条件を定義し,その条件を定式化する。
分割線形活性化を持つニューラルネットワーク $\mathcal{n}$ が与えられると、すべての等価ニューラルネットワークを記述する係数の空間は半代数集合によって与えられる。
この結果は、タルスキ=セイデンベルクの定理を用いて与えられた分割線型関数の異なる表現を研究することによって得られる。
関連論文リスト
- Graph Neural Networks for Learning Equivariant Representations of Neural Networks [55.04145324152541]
本稿では,ニューラルネットワークをパラメータの計算グラフとして表現することを提案する。
我々のアプローチは、ニューラルネットワークグラフを多種多様なアーキテクチャでエンコードする単一モデルを可能にする。
本稿では,暗黙的ニューラル表現の分類や編集など,幅広いタスクにおける本手法の有効性を示す。
論文 参考訳(メタデータ) (2024-03-18T18:01:01Z) - Universal Approximation Property of Random Neural Networks [3.943289808718775]
ボヒナー空間の大規模なクラス内での普遍近似を証明する。
ランダムニューラルネットワークによって決定論的関数を学習するための近似率と明示的アルゴリズムを導出する。
論文 参考訳(メタデータ) (2023-12-13T11:27:15Z) - Points of non-linearity of functions generated by random neural networks [0.0]
1つの隠れ活性化層、任意の幅、ReLU活性化関数を持つニューラルネットワークによって出力される実数から実数への関数を考える。
非線型性の点の期待分布を計算する。
論文 参考訳(メタデータ) (2023-04-19T17:40:19Z) - Permutation Equivariant Neural Functionals [92.0667671999604]
この研究は、他のニューラルネットワークの重みや勾配を処理できるニューラルネットワークの設計を研究する。
隠れた層状ニューロンには固有の順序がないため, 深いフィードフォワードネットワークの重みに生じる置換対称性に着目する。
実験の結果, 置換同変ニューラル関数は多種多様なタスクに対して有効であることがわかった。
論文 参考訳(メタデータ) (2023-02-27T18:52:38Z) - Extrapolation and Spectral Bias of Neural Nets with Hadamard Product: a
Polynomial Net Study [55.12108376616355]
NTKの研究は典型的なニューラルネットワークアーキテクチャに特化しているが、アダマール製品(NNs-Hp)を用いたニューラルネットワークには不完全である。
本研究では,ニューラルネットワークの特別なクラスであるNNs-Hpに対する有限幅Kの定式化を導出する。
我々は,カーネル回帰予測器と関連するNTKとの等価性を証明し,NTKの適用範囲を拡大する。
論文 参考訳(メタデータ) (2022-09-16T06:36:06Z) - On the Neural Tangent Kernel Analysis of Randomly Pruned Neural Networks [91.3755431537592]
ニューラルネットワークのニューラルカーネル(NTK)に重みのランダムプルーニングが及ぼす影響について検討する。
特に、この研究は、完全に接続されたニューラルネットワークとそのランダムに切断されたバージョン間のNTKの等価性を確立する。
論文 参考訳(メタデータ) (2022-03-27T15:22:19Z) - Sobolev-type embeddings for neural network approximation spaces [5.863264019032882]
近似可能な速度に応じて関数を分類するニューラルネットワーク近似空間を考察する。
p$の異なる値に対して、これらの空間間の埋め込み定理を証明する。
古典函数空間の場合と同様、可積分性を高めるために「滑らかさ」(すなわち近似率)を交換できる。
論文 参考訳(メタデータ) (2021-10-28T17:11:38Z) - Deep neural network approximation of analytic functions [91.3755431537592]
ニューラルネットワークの空間に エントロピーバウンド 片方向の線形活性化関数を持つ
我々は、ペナル化深部ニューラルネットワーク推定器の予測誤差に対するオラクルの不等式を導出する。
論文 参考訳(メタデータ) (2021-04-05T18:02:04Z) - Stability of Algebraic Neural Networks to Small Perturbations [179.55535781816343]
Algebraic Neural Network (AlgNN) は、代数的信号モデルと関連する各層のカスケードで構成されている。
畳み込みという形式的な概念を用いるアーキテクチャは、シフト演算子の特定の選択を超えて、いかに安定であるかを示す。
論文 参考訳(メタデータ) (2020-10-22T09:10:16Z) - Banach Space Representer Theorems for Neural Networks and Ridge Splines [17.12783792226575]
データに適合するニューラルネットワークで学習した関数の性質を理解するための変分フレームワークを開発する。
有限幅単層ニューラルネットワークが逆問題に対する解であることを示す代表者定理を導出する。
論文 参考訳(メタデータ) (2020-06-10T02:57:37Z) - A function space analysis of finite neural networks with insights from
sampling theory [41.07083436560303]
非拡張活性化関数を持つ多層ネットワークが生成する関数空間は滑らかであることを示す。
入力が帯域制限の仮定の下では、新しいエラー境界を提供する。
前者の利点を示す決定論的一様とランダムサンプリングの両方を解析した。
論文 参考訳(メタデータ) (2020-04-15T10:25:18Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。