論文の概要: The LG Fibration
- arxiv url: http://arxiv.org/abs/2212.02029v1
- Date: Mon, 5 Dec 2022 05:01:28 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-06 18:17:11.380312
- Title: The LG Fibration
- Title(参考訳): LGのフィブレーション
- Authors: Daniel Livschitz and Weiqing Gu
- Abstract要約: 我々は、$S2n-1$と$Sn$の間の位相接続を介して、$mathbbR2n$と$mathbbRn+1$の間のほぼ可逆写像を示す。
LG Fibrationは、適応型UAV制御におけるHopf Fibrationsの現在の応用と類似して、機械学習とAIに応用されている。
- 参考スコア(独自算出の注目度): 0.38073142980732994
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Deep Learning has significantly impacted the application of data-to-decision
throughout research and industry, however, they lack a rigorous mathematical
foundation, which creates situations where algorithmic results fail to be
practically invertible. In this paper we present a nearly invertible mapping
between $\mathbb{R}^{2^n}$ and $\mathbb{R}^{n+1}$ via a topological connection
between $S^{2^n-1}$ and $S^n$. Throughout the paper we utilize the algebra of
Multicomplex rotation groups and polyspherical coordinates to define two maps:
the first is a contraction from $S^{2^n-1}$ to $\displaystyle \otimes^n_{k=1}
SO(2)$, and the second is a projection from $\displaystyle \otimes^n_{k=1}
SO(2)$ to $S^{n}$. Together these form a composite map that we call the LG
Fibration. In analogy to the generation of Hopf Fibration using Hypercomplex
geometry from $S^{(2n-1)} \mapsto CP^n$, our fibration uses Multicomplex
geometry to project $S^{2^n-1}$ onto $S^n$. We also investigate the algebraic
properties of the LG Fibration, ultimately deriving a distance difference
function to determine which pairs of vectors have an invariant inner product
under the transformation. The LG Fibration has applications to Machine Learning
and AI, in analogy to the current applications of Hopf Fibrations in adaptive
UAV control. Furthermore, the ability to invert the LG Fibration for nearly all
elements allows for the development of Machine Learning algorithms that may
avoid the issues of uncertainty and reproducibility that currently plague
contemporary methods. The primary result of this paper is a novel method of
nearly invertible geometric dimensional reduction from $S^{2^n-1}$ to $S^n$,
which has the capability to extend the research in both mathematics and AI,
including but not limited to the fields of homotopy groups of spheres,
algebraic topology, machine learning, and algebraic biology.
- Abstract(参考訳): ディープラーニングは、研究や産業全体にわたるデータから判断への応用に大きな影響を与えてきたが、それらは厳密な数学的基礎を欠いており、アルゴリズム的な結果が事実上可逆的ではない状況を生み出している。
本稿では、$s^{2^n-1}$ と $s^n$ の間の位相接続により、$\mathbb{r}^{2^n}$ と$\mathbb{r}^{n+1}$ のほぼ可逆写像を示す。
一つは$S^{2^n-1}$ から $ {\displaystyle \otimes^n_{k=1} SO(2)$ への縮約であり、もう一つは $ {\displaystyle \otimes^n_{k=1} SO(2)$ から $S^{n}$ への射影である。
これらはlg fibrationと呼ばれる複合マップを形成します。
S^{(2n-1)} \mapsto CP^n$からの超複素幾何を用いたホップ・フィブレーションの生成と類似して、我々のフィブレーションは多複素幾何を用いて$S^{2^n-1}$を$S^n$に投影する。
また、LGフィブレーションの代数的性質を調べ、最終的に距離差関数を導出し、変換の下でどのベクトル対が不変内部積を持つかを決定する。
LG Fibrationは、適応型UAV制御におけるHopf Fibrationsの現在の応用と類似して、機械学習とAIに応用されている。
さらに、ほぼすべての要素のlgファイバレーションを反転させる能力は、現在現代の手法を悩ませている不確実性と再現性の問題を回避できる機械学習アルゴリズムの開発を可能にする。
本研究の主な成果は, 球面のホモトピー群, 代数トポロジー, 機械学習, 代数生物学の分野に限らず, 数学とAIの両方の研究を拡張できるような, ほぼ可逆な幾何学的次元を$S^{2^n-1}$から$S^n$に還元する方法である。
関連論文リスト
- Breaking the Curse of Dimensionality with Distributed Neural Computation [17.571316365665673]
本稿では,複数のマシンに分散可能なニューラルネットワークアルゴリズムを用いて,次元の呪いを克服する理論的アプローチを提案する。
VRAMに少数のパラメータをロードするだけで任意の精度を達成できます。
論文 参考訳(メタデータ) (2024-02-05T19:11:57Z) - Efficiently Learning One-Hidden-Layer ReLU Networks via Schur
Polynomials [50.90125395570797]
正方形損失に関して、標準的なガウス分布の下での$k$ReLU活性化の線形結合をPAC学習する問題をmathbbRd$で検討する。
本研究の主な成果は,この学習課題に対して,サンプルおよび計算複雑性が$(dk/epsilon)O(k)$で,epsilon>0$が目標精度である。
論文 参考訳(メタデータ) (2023-07-24T14:37:22Z) - Quantum double aspects of surface code models [77.34726150561087]
基礎となる量子double $D(G)$対称性を持つ正方格子上でのフォールトトレラント量子コンピューティングの北エフモデルを再検討する。
有限次元ホップ代数$H$に基づいて、我々の構成がどのように$D(H)$モデルに一般化するかを示す。
論文 参考訳(メタデータ) (2021-06-25T17:03:38Z) - Learning elliptic partial differential equations with randomized linear
algebra [2.538209532048867]
ほぼ確実に収束する$G$への近似を構築することができることを示す。
0Gamma_epsilonleq 1$はトレーニングデータセットの品質を特徴付ける。
論文 参考訳(メタデータ) (2021-01-31T16:57:59Z) - Small Covers for Near-Zero Sets of Polynomials and Learning Latent
Variable Models [56.98280399449707]
我々は、s$ of cardinality $m = (k/epsilon)o_d(k1/d)$ に対して $epsilon$-cover が存在することを示す。
構造的結果に基づいて,いくつかの基本的高次元確率モデル隠れ変数の学習アルゴリズムを改良した。
論文 参考訳(メタデータ) (2020-12-14T18:14:08Z) - A deep network construction that adapts to intrinsic dimensionality
beyond the domain [79.23797234241471]
本稿では,ReLUを活性化したディープネットワークを用いて,2層合成の近似を$f(x) = g(phi(x))$で検討する。
例えば、低次元埋め込み部分多様体への射影と、低次元集合の集合への距離である。
論文 参考訳(メタデータ) (2020-08-06T09:50:29Z) - Epsilon-nets, unitary designs and random quantum circuits [0.11719282046304676]
エプシロンネット(Epsilon-nets)は、量子情報や量子コンピューティングにおける多くの応用に関連するユニタリ演算の概念である。
固定された$d$に対して、$delta$-approx $t$-expanders を構成するユニタリが $epsilon$-nets for $tsimeqfracd5/2epsilon$ および $delta=left(fracepsilon3/2dright)d2$ となることを証明している。
近似tdesign が生成可能であることを示す。
論文 参考訳(メタデータ) (2020-07-21T15:16:28Z) - Optimal Robust Linear Regression in Nearly Linear Time [97.11565882347772]
学習者が生成モデル$Y = langle X,w* rangle + epsilon$から$n$のサンプルにアクセスできるような高次元頑健な線形回帰問題について検討する。
i) $X$ is L4-L2 hypercontractive, $mathbbE [XXtop]$ has bounded condition number and $epsilon$ has bounded variance, (ii) $X$ is sub-Gaussian with identity second moment and $epsilon$ is
論文 参考訳(メタデータ) (2020-07-16T06:44:44Z) - Learning Over-Parametrized Two-Layer ReLU Neural Networks beyond NTK [58.5766737343951]
2層ニューラルネットワークを学習する際の降下のダイナミクスについて考察する。
過度にパラメータ化された2層ニューラルネットワークは、タンジェントサンプルを用いて、ほとんどの地上で勾配損失を許容的に学習できることを示す。
論文 参考訳(メタデータ) (2020-07-09T07:09:28Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。