論文の概要: Learning knot invariants across dimensions
- arxiv url: http://arxiv.org/abs/2112.00016v1
- Date: Tue, 30 Nov 2021 19:00:01 GMT
- ステータス: 処理完了
- システム内更新日: 2021-12-02 15:58:57.640468
- Title: Learning knot invariants across dimensions
- Title(参考訳): 次元にわたる結び目不変量を学ぶ
- Authors: Jessica Craven, Mark Hughes, Vishnu Jejjala, Arjun Kar
- Abstract要約: 2層フィードフォワードニューラルネットワークが$textKh(q,-q-4)$から$s$を99%以上の精度で予測できることを示す。
同様の性能が$textKh(q,-q-2)$から$s$の予測に見出され、これは結び目のホバノフとリーホモロジー理論の間の新しい関係を示唆している。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We use deep neural networks to machine learn correlations between knot
invariants in various dimensions. The three-dimensional invariant of interest
is the Jones polynomial $J(q)$, and the four-dimensional invariants are the
Khovanov polynomial $\text{Kh}(q,t)$, smooth slice genus $g$, and Rasmussen's
$s$-invariant. We find that a two-layer feed-forward neural network can predict
$s$ from $\text{Kh}(q,-q^{-4})$ with greater than $99\%$ accuracy. A
theoretical explanation for this performance exists in knot theory via the now
disproven knight move conjecture, which is obeyed by all knots in our dataset.
More surprisingly, we find similar performance for the prediction of $s$ from
$\text{Kh}(q,-q^{-2})$, which suggests a novel relationship between the
Khovanov and Lee homology theories of a knot. The network predicts $g$ from
$\text{Kh}(q,t)$ with similarly high accuracy, and we discuss the extent to
which the machine is learning $s$ as opposed to $g$, since there is a general
inequality $|s| \leq 2g$. The Jones polynomial, as a three-dimensional
invariant, is not obviously related to $s$ or $g$, but the network achieves
greater than $95\%$ accuracy in predicting either from $J(q)$. Moreover,
similar accuracy can be achieved by evaluating $J(q)$ at roots of unity. This
suggests a relationship with $SU(2)$ Chern--Simons theory, and we review the
gauge theory construction of Khovanov homology which may be relevant for
explaining the network's performance.
- Abstract(参考訳): 深層ニューラルネットワークを用いて様々な次元の結び目不変量間の相関関係を機械学習する。
興味のある3次元不変量はジョーンズ多項式 $j(q)$ であり、4次元不変量はホヴァノフ多項式 $\text{kh}(q,t)$、滑らかなスライス属 $g$、ラスムセンの $s$-invariant である。
2層フィードフォワードニューラルネットワークは、$99\%以上の精度で$\text{Kh}(q,-q^{-4})$から$s$を予測することができる。
この性能に関する理論的説明は、現在証明されていない騎士運動予想を通じて結び目理論に存在し、これはデータセットのすべての結び目によって従う。
さらに驚くべきことに、$\text{Kh}(q,-q^{-2})$から$s$の予測に類似した性能が得られ、これは結び目のホバノフとリーホモロジー理論の間の新しい関係を示唆している。
同様の精度で$g$を$\text{Kh}(q,t)$から予測し、一般的な不等式$|s| \leq 2g$が存在するため、$g$とは対照的に、マシンが$s$を学習している範囲について議論する。
3次元不変量としてのジョーンズ多項式は、明らかに$s$ や $g$ とは関係しないが、ネットワークは$j(q)$ から予測する場合に 95\% 以上の精度を達成している。
さらに、同様の精度はユニティの根で$J(q)$を評価することで達成できる。
これは$su(2)$チャーン=サイモンズ理論との関係を示唆し、ネットワークのパフォーマンスを説明するのに関係があるかもしれないホバノフホモロジーのゲージ理論構成を考察する。
関連論文リスト
- Overcomplete Tensor Decomposition via Koszul-Young Flattenings [63.01248796170617]
最小ランク1項の和として$n_times n times n_3$ tensorを分解する新しいアルゴリズムを与える。
次数-d$s のさらに一般的なクラスは、定数 $C = C(d)$ に対して階数 $Cn$ を超えることができないことを示す。
論文 参考訳(メタデータ) (2024-11-21T17:41:09Z) - A Theory of Interpretable Approximations [61.90216959710842]
我々は、ある基底クラス $mathcalH$ の概念の小さな集合によってターゲット概念 $c$ を近似するという考え方を研究する。
任意の$mathcalH$と$c$のペアに対して、これらのケースのちょうど1つが成り立つ: (i) $c$を任意の精度で$mathcalH$で近似することはできない。
解釈可能な近似の場合、近似の複雑さに関するわずかに非自明なa-priori保証でさえ、定数(分布自由かつ精度)の近似を意味することを示す。
論文 参考訳(メタデータ) (2024-06-15T06:43:45Z) - Learning Hierarchical Polynomials with Three-Layer Neural Networks [56.71223169861528]
3層ニューラルネットワークを用いた標準ガウス分布における階層関数の学習問題について検討する。
次数$k$s$p$の大規模なサブクラスの場合、正方形損失における階層的勾配によるトレーニングを受けた3層ニューラルネットワークは、テストエラーを消すためにターゲット$h$を学習する。
この研究は、3層ニューラルネットワークが複雑な特徴を学習し、その結果、幅広い階層関数のクラスを学ぶ能力を示す。
論文 参考訳(メタデータ) (2023-11-23T02:19:32Z) - Effective Minkowski Dimension of Deep Nonparametric Regression: Function
Approximation and Statistical Theories [70.90012822736988]
ディープ非パラメトリック回帰に関する既存の理論は、入力データが低次元多様体上にある場合、ディープニューラルネットワークは本質的なデータ構造に適応できることを示した。
本稿では,$mathcalS$で表される$mathbbRd$のサブセットに入力データが集中するという緩和された仮定を導入する。
論文 参考訳(メタデータ) (2023-06-26T17:13:31Z) - $q$ deformed formulation of Hamiltonian SU(3) Yang-Mills theory [0.0]
我々は、ウィルソン線のネットワークに基づいて、$ (2+1)$次元で$mathrmSU(3)$ Yang-Mills理論を研究する。
我々は、$mathrmSU(3)_k$ Yang-Mills理論の基底状態の平均場計算を行う。
平均場計算の成功は、ヤン・ミルズ理論の本質的な特徴がテンソルネットワークによってよく説明されていることを示している。
論文 参考訳(メタデータ) (2023-06-21T15:08:12Z) - O$n$ Learning Deep O($n$)-Equivariant Hyperspheres [18.010317026027028]
我々は、$n$Dの反射と回転の変換の下で、深い特徴同変を学習するためのアプローチを提案する。
すなわち、任意の次元$n$に一般化する球面決定曲面を持つ O$(n)$-同変ニューロンを提案する。
我々は理論的貢献を実験的に検証し、O$(n)$-equivariantベンチマークデータセットの競合する手法よりもアプローチの方が優れていることを発見した。
論文 参考訳(メタデータ) (2023-05-24T23:04:34Z) - Equivalence Between SE(3) Equivariant Networks via Steerable Kernels and
Group Convolution [90.67482899242093]
近年, 入力の回転と変換において等価な3次元データに対して, ニューラルネットワークを設計するための幅広い手法が提案されている。
両手法とその等価性を詳細に解析し,その2つの構成をマルチビュー畳み込みネットワークに関連付ける。
また、同値原理から新しいTFN非線形性を導出し、実用的なベンチマークデータセット上でテストする。
論文 参考訳(メタデータ) (2022-11-29T03:42:11Z) - Quantum double aspects of surface code models [77.34726150561087]
基礎となる量子double $D(G)$対称性を持つ正方格子上でのフォールトトレラント量子コンピューティングの北エフモデルを再検討する。
有限次元ホップ代数$H$に基づいて、我々の構成がどのように$D(H)$モデルに一般化するかを示す。
論文 参考訳(メタデータ) (2021-06-25T17:03:38Z) - Geometric Deep Learning and Equivariant Neural Networks [0.9381376621526817]
幾何学的深層学習の数学的基礎を調査し,群同変とゲージ同変ニューラルネットワークに着目した。
任意の多様体 $mathcalM$ 上のゲージ同変畳み込みニューラルネットワークを、構造群 $K$ の主バンドルと、関連するベクトルバンドルの切断間の同変写像を用いて開発する。
セマンティックセグメンテーションやオブジェクト検出ネットワークなど,このフォーマリズムのいくつかの応用を解析する。
論文 参考訳(メタデータ) (2021-05-28T15:41:52Z) - A law of robustness for two-layers neural networks [35.996863024271974]
我々は、任意のリプシッツ活性化関数とほとんどのデータセットにおいて、$k$のニューロンを持つ任意の2層ニューラルネットワークは、データに完全に適合する任意の2層ニューラルネットワークは、そのリプシッツ定数が$sqrtn/k$よりも大きい(定数まで)。
この予想は、リプシッツ定数が重み行列のスペクトルノルムに基づいて上界に置き換わるときに証明する。
論文 参考訳(メタデータ) (2020-09-30T05:13:12Z) - How isotropic kernels perform on simple invariants [0.5729426778193397]
等方性カーネル手法のトレーニング曲線は、学習すべきタスクの対称性に依存するかを検討する。
大規模な帯域幅では、$beta = fracd-1+xi3d-3+xi$, where $xiin (0,2)$ がカーネルのストライプを原点とする指数であることを示す。
論文 参考訳(メタデータ) (2020-06-17T09:59:18Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。