論文の概要: Deep Neural Networks: A Formulation Via Non-Archimedean Analysis
- arxiv url: http://arxiv.org/abs/2402.00094v1
- Date: Wed, 31 Jan 2024 14:49:44 GMT
- ステータス: 処理完了
- システム内更新日: 2024-02-02 17:51:49.764660
- Title: Deep Neural Networks: A Formulation Via Non-Archimedean Analysis
- Title(参考訳): ディープニューラルネットワーク:非アルキメデス解析による定式化
- Authors: W. A. Z\'u\~niga-Galindo
- Abstract要約: 木構造を多層化した新しいディープニューラルネットワーク(DNN)を導入する。
アーキテクチャは非アルキムデアン局所体の整数環の数を用いて成す。
新しいDNNは、上記の環上で定義された実数値関数の強普遍近似器である。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We introduce a new class of deep neural networks (DNNs) with multilayered
tree-like architectures. The architectures are codified using numbers from the
ring of integers of non-Archimdean local fields. These rings have a natural
hierarchical organization as infinite rooted trees. Natural morphisms on these
rings allow us to construct finite multilayered architectures. The new DNNs are
robust universal approximators of real-valued functions defined on the
mentioned rings. We also show that the DNNs are robust universal approximators
of real-valued square-integrable functions defined in the unit interval.
- Abstract(参考訳): 本稿では,多層構造を持つディープニューラルネットワーク(dnn)の新たなクラスを提案する。
アーキテクチャは非アルキメデス局所体の整数環の数値を用いて成文化される。
これらの環は無限根木として自然な階層構造を持つ。
これらの環上の自然な射は有限多層構造を構築することができる。
新しいDNNは、上記の環上で定義された実数値関数の強普遍近似である。
また、DNNは単位区間で定義される実数値二乗可積分関数の強普遍近似器であることを示す。
関連論文リスト
- On The Expressivity of Recurrent Neural Cascades [48.87943990557107]
リカレントニューラルカスケード(Recurrent Neural Cascades、RNC)は、リカレントニューラルネットワークであり、リカレントニューロン間で循環的依存を持たない。
RNCは、グループを実装可能なニューロンを導入することで、すべての正規言語を表現できることを示す。
論文 参考訳(メタデータ) (2023-12-14T15:47:26Z) - Universal Approximation Property of Hamiltonian Deep Neural Networks [0.0]
我々はHDNNのフローの一部がコンパクト領域上の任意の連続関数を任意に近似できることを示した。
この結果はHDNNの実用化のための確かな理論基盤を提供する。
論文 参考訳(メタデータ) (2023-03-21T19:10:09Z) - Intrinsic and extrinsic deep learning on manifolds [2.207988653560308]
固有ディープニューラルネットワーク(intrinsic Deep Neural Network, IDNN)は、指数写像と対数写像を通じて、多様体の基底となる固有幾何を包含する。
我々は、eDNNとiDNNの実証リスク最小化器(ERM)の実証リスクが最適な速度で収束していることを証明する。
eDNNsフレームワークはシンプルで簡単に計算できるが、iDNNsフレームワークは正確で高速な収束である。
論文 参考訳(メタデータ) (2023-02-16T22:10:38Z) - Deep Architecture Connectivity Matters for Its Convergence: A
Fine-Grained Analysis [94.64007376939735]
我々は、勾配降下訓練におけるディープニューラルネットワーク(DNN)の収束に対する接続パターンの影響を理論的に特徴づける。
接続パターンの単純なフィルタリングによって、評価対象のモデルの数を削減できることが示される。
論文 参考訳(メタデータ) (2022-05-11T17:43:54Z) - Universal approximation property of invertible neural networks [76.95927093274392]
Invertible Neural Network (INN) は、設計によって可逆性を持つニューラルネットワークアーキテクチャである。
その可逆性とヤコビアンのトラクタビリティのおかげで、IGNは確率的モデリング、生成的モデリング、表現的学習など、さまざまな機械学習応用がある。
論文 参考訳(メタデータ) (2022-04-15T10:45:26Z) - Leveraging The Topological Consistencies of Learning in Deep Neural
Networks [0.0]
我々は,実行中の計算の迅速化を図りながら,学習の進捗を正確に特徴付ける,新しいトポロジ的特徴のクラスを定義する。
提案するトポロジカルな特徴は, バックプロパゲーションに容易に対応できるので, エンド・ツー・エンドのトレーニングに組み込むことが可能である。
論文 参考訳(メタデータ) (2021-11-30T18:34:48Z) - Bridging the Gap between Spatial and Spectral Domains: A Unified
Framework for Graph Neural Networks [61.17075071853949]
グラフニューラルネットワーク(GNN)は、古典的なディープラーニングが容易に管理できないグラフ構造データを扱うように設計されている。
本研究の目的は,スペクトルグラフと近似理論に基づいてGNNを統合する統一フレームワークを確立することである。
論文 参考訳(メタデータ) (2021-07-21T17:34:33Z) - Stability of Algebraic Neural Networks to Small Perturbations [179.55535781816343]
Algebraic Neural Network (AlgNN) は、代数的信号モデルと関連する各層のカスケードで構成されている。
畳み込みという形式的な概念を用いるアーキテクチャは、シフト演算子の特定の選択を超えて、いかに安定であるかを示す。
論文 参考訳(メタデータ) (2020-10-22T09:10:16Z) - Non-Euclidean Universal Approximation [4.18804572788063]
ニューラルネットワークの入力層と出力層の修正は、多くの場合、最も実践的な学習タスクの特異性を満たすために必要である。
アーキテクチャの連続関数をコンパクトな上で一様に近似する能力を保った特徴写像と読み出し写像を記述した一般的な条件を示す。
論文 参考訳(メタデータ) (2020-06-03T15:38:57Z) - A Formal Hierarchy of RNN Architectures [88.38859874233944]
階層構造は、RNNのメモリを測定する空間と、リカレント更新が重み付けされた有限状態マシンで記述できるかどうかという有理再帰という2つの形式的特性に基づいている。
これらのモデルの表現能力は、複数の層を積み重ねたり、異なるプール機能で構成することでどのように拡張されるかを示す。
我々は、不飽和RNNの実用的な学習能力は、同様の階層に従うと仮定する。
論文 参考訳(メタデータ) (2020-04-18T00:57:54Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。