論文の概要: Dimensionality reduction and width of deep neural networks based on topological degree theory
- arxiv url: http://arxiv.org/abs/2511.06821v1
- Date: Mon, 10 Nov 2025 08:09:56 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-11 21:18:45.150638
- Title: Dimensionality reduction and width of deep neural networks based on topological degree theory
- Title(参考訳): 位相次数理論に基づく深部ニューラルネットワークの次元化と幅
- Authors: Xiao-Song Yang,
- Abstract要約: コンパクトな位相空間のユークリッド空間への埋め込みと、特定の次元還元写像のクラスの下での連結埋め込みの分離性に関する枠組みを提案する。
深層ニューラルネットワークの設定におけるディープラーニング理論の分類と近似問題に関する興味深い洞察を提供する。
- 参考スコア(独自算出の注目度): 5.638692909006843
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In this paper we present a mathematical framework on linking of embeddings of compact topological spaces into Euclidean spaces and separability of linked embeddings under a specific class of dimension reduction maps. As applications of the established theory, we provide some fascinating insights into classification and approximation problems in deep learning theory in the setting of deep neural networks.
- Abstract(参考訳): 本稿では,コンパクトな位相空間のユークリッド空間への埋め込みと,特定の次元還元写像のクラスの下での連結埋め込みの分離性に関する数学的枠組みを提案する。
確立された理論の応用として、深層ニューラルネットワークの設定におけるディープラーニング理論の分類と近似問題に関する興味深い洞察を提供する。
関連論文リスト
- Navigation through Non-Compact Symmetric Spaces: a mathematical perspective on Cartan Neural Networks [0.3749861135832073]
これらの概念の初期の実装は、Cartan Neural Networksのモニカーの下で双子の論文で紹介されている。
現在の論文は、カルタンニューラルネットワークを支える数学的構造を拡張し、それらの層の幾何学的性質を詳述している。
これらの論文は、群理論構造を利用したニューラルネットワークの完全に幾何学的に解釈可能な理論への第一歩となる。
論文 参考訳(メタデータ) (2025-07-22T07:34:53Z) - Spring-block theory of feature learning in deep neural networks [11.396919965037636]
特徴学習深度ネットが、定期的に低次元の幾何学にどのように崩壊するかを示す。
本稿では,図を再現し,階層間の特徴学習と一般化をリンクするマクロ力学的理論を提案する。
論文 参考訳(メタデータ) (2024-07-28T00:07:20Z) - Neural reproducing kernel Banach spaces and representer theorems for deep networks [14.902126718612648]
ディープニューラルネットワークは、適切なカーネルバナッハ空間の再生を定義する。
応用において一般的に用いられる有限アーキテクチャを正当化する代表者定理を導出する。
論文 参考訳(メタデータ) (2024-03-13T17:51:02Z) - A Structural Approach to the Design of Domain Specific Neural Network
Architectures [0.0]
この論文は幾何学的深層学習の理論的評価を提供することを目的としている。
学習性能に関する不変ニューラルネットワークの特性を特徴付ける理論的な結果をコンパイルする。
論文 参考訳(メタデータ) (2023-01-23T11:50:57Z) - Rank Diminishing in Deep Neural Networks [71.03777954670323]
ニューラルネットワークのランクは、層をまたがる情報を測定する。
これは機械学習の幅広い領域にまたがる重要な構造条件の例である。
しかし、ニューラルネットワークでは、低ランク構造を生み出す固有のメカニズムはあいまいで不明瞭である。
論文 参考訳(メタデータ) (2022-06-13T12:03:32Z) - A singular Riemannian geometry approach to Deep Neural Networks I.
Theoretical foundations [77.86290991564829]
ディープニューラルネットワークは、音声認識、機械翻訳、画像解析など、いくつかの科学領域で複雑な問題を解決するために広く使われている。
我々は、リーマン計量を備えた列の最後の多様体で、多様体間の写像の特定の列を研究する。
このようなシーケンスのマップの理論的性質について検討し、最終的に実践的な関心を持つニューラルネットワークの実装間のマップのケースに焦点を当てる。
論文 参考訳(メタデータ) (2021-12-17T11:43:30Z) - Recent advances in deep learning theory [104.01582662336256]
本稿では,近年のディープラーニング理論の進歩をレビューし,整理する。
文献は,(1)深層学習の一般化可能性を分析する複雑性とキャパシティに基づくアプローチ,(2)勾配降下とその変種をモデル化するための微分方程式とその力学系,(3)動的システムの軌道を駆動する損失景観の幾何学的構造,(5)ネットワークアーキテクチャにおけるいくつかの特別な構造の理論的基礎,の6つのグループに分類される。
論文 参考訳(メタデータ) (2020-12-20T14:16:41Z) - Developing Constrained Neural Units Over Time [81.19349325749037]
本稿では,既存のアプローチと異なるニューラルネットワークの定義方法に焦点をあてる。
ニューラルネットワークの構造は、データとの相互作用にも拡張される制約の特別なクラスによって定義される。
提案した理論は時間領域にキャストされ, データを順序づけられた方法でネットワークに提示する。
論文 参考訳(メタデータ) (2020-09-01T09:07:25Z) - Learning Connectivity of Neural Networks from a Topological Perspective [80.35103711638548]
本稿では,ネットワークを解析のための完全なグラフに表現するためのトポロジ的視点を提案する。
接続の規模を反映したエッジに学習可能なパラメータを割り当てることにより、学習プロセスを異なる方法で行うことができる。
この学習プロセスは既存のネットワークと互換性があり、より大きな検索空間と異なるタスクへの適応性を持っている。
論文 参考訳(メタデータ) (2020-08-19T04:53:31Z) - A Chain Graph Interpretation of Real-World Neural Networks [58.78692706974121]
本稿では,NNを連鎖グラフ(CG)、フィードフォワードを近似推論手法として識別する別の解釈を提案する。
CG解釈は、確率的グラフィカルモデルのリッチな理論的枠組みの中で、各NNコンポーネントの性質を規定する。
我々は,CG解釈が様々なNN技術に対する新しい理論的支援と洞察を提供することを示す具体例を実例で示す。
論文 参考訳(メタデータ) (2020-06-30T14:46:08Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。