論文の概要: Universal Approximation Theorem for Vector- and Hypercomplex-Valued
Neural Networks
- arxiv url: http://arxiv.org/abs/2401.02277v1
- Date: Thu, 4 Jan 2024 13:56:13 GMT
- ステータス: 処理完了
- システム内更新日: 2024-01-05 14:55:09.085771
- Title: Universal Approximation Theorem for Vector- and Hypercomplex-Valued
Neural Networks
- Title(参考訳): ベクトル・超複素値ニューラルネットワークの普遍近似定理
- Authors: Marcos Eduardo Valle, Wington L. Vital, Guilherme Vieira
- Abstract要約: 普遍近似定理(英: universal approximation theorem)は、1つの隠れた層を持つニューラルネットワークがコンパクト集合上の連続関数を近似できるという定理である。
これは、実数値ニューラルネットワークと超複素数値ニューラルネットワークに有効である。
- 参考スコア(独自算出の注目度): 0.4143603294943439
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The universal approximation theorem states that a neural network with one
hidden layer can approximate continuous functions on compact sets with any
desired precision. This theorem supports using neural networks for various
applications, including regression and classification tasks. Furthermore, it is
valid for real-valued neural networks and some hypercomplex-valued neural
networks such as complex-, quaternion-, tessarine-, and Clifford-valued neural
networks. However, hypercomplex-valued neural networks are a type of
vector-valued neural network defined on an algebra with additional algebraic or
geometric properties. This paper extends the universal approximation theorem
for a wide range of vector-valued neural networks, including
hypercomplex-valued models as particular instances. Precisely, we introduce the
concept of non-degenerate algebra and state the universal approximation theorem
for neural networks defined on such algebras.
- Abstract(参考訳): 普遍近似定理によれば、1つの隠れ層を持つニューラルネットワークは、任意の精度でコンパクト集合上の連続関数を近似することができる。
この定理は、回帰や分類タスクを含む様々な応用にニューラルネットワークを使うことをサポートする。
さらに、実数値ニューラルネットワークや、複素、四元、テッサリン、クリフォード値ニューラルネットワークのような超複素値ニューラルネットワークにも有効である。
しかし、超複素値ニューラルネットワーク(hypercomplex-valued neural network)は、代数的あるいは幾何学的性質を持つ代数上で定義されるベクトル値ニューラルネットワークの一種である。
本稿では,超複素数値モデルを含む,幅広いベクトル値ニューラルネットワークに対する普遍近似定理を拡張した。
正確には、非退化代数の概念を導入し、そのような代数上で定義されるニューラルネットワークに対する普遍近似定理を述べる。
関連論文リスト
- Fully tensorial approach to hypercomplex neural networks [0.0]
鍵となる点は、代数乗法が階数3のテンソルとして表せることを観察することである。
このアプローチは、効果的なテンソル操作をサポートするニューラルネットワークライブラリにとって魅力的なものだ。
論文 参考訳(メタデータ) (2024-06-29T14:19:40Z) - Novel Kernel Models and Exact Representor Theory for Neural Networks Beyond the Over-Parameterized Regime [52.00917519626559]
本稿では、ニューラルネットワークの2つのモデルと、任意の幅、深さ、トポロジーのニューラルネットワークに適用可能なトレーニングについて述べる。
また、局所外在性神経核(LeNK)の観点から、非正規化勾配降下を伴う階層型ニューラルネットワークトレーニングのための正確な表現子理論を提示する。
この表現論は、ニューラルネットワークトレーニングにおける高次統計学の役割と、ニューラルネットワークのカーネルモデルにおけるカーネル進化の影響について洞察を与える。
論文 参考訳(メタデータ) (2024-05-24T06:30:36Z) - Riemannian Residual Neural Networks [58.925132597945634]
残余ニューラルネットワーク(ResNet)の拡張方法を示す。
ResNetは、機械学習において、有益な学習特性、優れた経験的結果、そして様々なニューラルネットワークを構築する際に容易に組み込める性質のために、ユビキタスになった。
論文 参考訳(メタデータ) (2023-10-16T02:12:32Z) - On the Approximation and Complexity of Deep Neural Networks to Invariant
Functions [0.0]
深部ニューラルネットワークの不変関数への近似と複雑性について検討する。
様々なタイプのニューラルネットワークモデルにより、幅広い不変関数を近似できることを示す。
我々は,高分解能信号のパラメータ推定と予測を理論的結論と結びつけることが可能なアプリケーションを提案する。
論文 参考訳(メタデータ) (2022-10-27T09:19:19Z) - Extrapolation and Spectral Bias of Neural Nets with Hadamard Product: a
Polynomial Net Study [55.12108376616355]
NTKの研究は典型的なニューラルネットワークアーキテクチャに特化しているが、アダマール製品(NNs-Hp)を用いたニューラルネットワークには不完全である。
本研究では,ニューラルネットワークの特別なクラスであるNNs-Hpに対する有限幅Kの定式化を導出する。
我々は,カーネル回帰予測器と関連するNTKとの等価性を証明し,NTKの適用範囲を拡大する。
論文 参考訳(メタデータ) (2022-09-16T06:36:06Z) - Extending the Universal Approximation Theorem for a Broad Class of
Hypercomplex-Valued Neural Networks [1.0323063834827413]
普遍近似定理は、単一の隠れ層ニューラルネットワークがコンパクト集合上の任意の所望の精度で連続関数を近似すると主張する。
本稿では,超複素数値ニューラルネットワークの広範クラスに対する普遍近似定理を拡張した。
論文 参考訳(メタデータ) (2022-09-06T12:45:15Z) - A note on the complex and bicomplex valued neural networks [0.0]
まず、複素多値ニューラルネットワーク(CMVNN)のパーセプトロン収束アルゴリズムの証明を記述する。
我々の第一の目的は、両複素多値ニューラルネットワーク(BMVNN)のパーセプトロン収束アルゴリズムを定式化し、証明することである。
論文 参考訳(メタデータ) (2022-02-04T19:25:01Z) - Towards Understanding Theoretical Advantages of Complex-Reaction
Networks [77.34726150561087]
パラメータ数を用いて,関数のクラスを複素反応ネットワークで近似できることを示す。
経験的リスク最小化については,複素反応ネットワークの臨界点集合が実数値ネットワークの固有部分集合であることを示す。
論文 参考訳(メタデータ) (2021-08-15T10:13:49Z) - Optimal Approximation with Sparse Neural Networks and Applications [0.0]
深い疎結合ニューラルネットワークを用いて、関数クラスの複雑性を$L(mathbb Rd)$で測定する。
また、ニューラルネットワークを誘導する関数の可算コレクションである表現システムについても紹介する。
次に、レート歪曲理論とウェッジレット構成を用いて、$beta$マンガ的関数と呼ばれるクラスの複雑性を分析する。
論文 参考訳(メタデータ) (2021-08-14T05:14:13Z) - The Separation Capacity of Random Neural Networks [78.25060223808936]
標準ガウス重みと一様分布バイアスを持つ十分に大きな2層ReLUネットワークは、この問題を高い確率で解くことができることを示す。
我々は、相互複雑性という新しい概念の観点から、データの関連構造を定量化する。
論文 参考訳(メタデータ) (2021-07-31T10:25:26Z) - Stability of Algebraic Neural Networks to Small Perturbations [179.55535781816343]
Algebraic Neural Network (AlgNN) は、代数的信号モデルと関連する各層のカスケードで構成されている。
畳み込みという形式的な概念を用いるアーキテクチャは、シフト演算子の特定の選択を超えて、いかに安定であるかを示す。
論文 参考訳(メタデータ) (2020-10-22T09:10:16Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。