論文の概要: Disentangling a Deep Learned Volume Formula
- arxiv url: http://arxiv.org/abs/2012.03955v1
- Date: Mon, 7 Dec 2020 19:00:01 GMT
- ステータス: 処理完了
- システム内更新日: 2021-05-16 20:45:31.141823
- Title: Disentangling a Deep Learned Volume Formula
- Title(参考訳): 深層学習ボリュームフォーミュラの遠近化
- Authors: Jessica Craven, Vishnu Jejjala, Arjun Kar
- Abstract要約: 本稿では,ジョーンズ結び目の単一評価のみを用いて,結び目の双曲体積を統一の根元で近似する簡単な式を提案する。
最初の170万ノットの平均誤差は2.86%であり、これはこの種の以前の公式よりも大きな改善である。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We present a simple phenomenological formula which approximates the
hyperbolic volume of a knot using only a single evaluation of its Jones
polynomial at a root of unity. The average error is just 2.86% on the first 1.7
million knots, which represents a large improvement over previous formulas of
this kind. To find the approximation formula, we use layer-wise relevance
propagation to reverse engineer a black box neural network which achieves a
similar average error for the same approximation task when trained on 10% of
the total dataset. The particular roots of unity which appear in our analysis
cannot be written as $e^{2\pi i / (k+2)}$ with integer $k$; therefore, the
relevant Jones polynomial evaluations are not given by unknot-normalized
expectation values of Wilson loop operators in conventional $SU(2)$
Chern-Simons theory with level $k$. Instead, they correspond to an analytic
continuation of such expectation values to fractional level. We briefly review
the continuation procedure and comment on the presence of certain Lefschetz
thimbles, to which our approximation formula is sensitive, in the analytically
continued Chern-Simons integration cycle.
- Abstract(参考訳): 単元根におけるジョーンズ多項式の単一の評価のみを用いて結び目の双曲体積を近似する単純な現象論的公式を提案する。
最初の170万ノットの平均誤差は2.86%であり、これはこの種の以前の公式よりも大きな改善である。
近似式を見つけるために,ブラックボックスニューラルネットワークのリバースエンジニアリングに階層的関連性伝搬を用い,全データセットの10%でトレーニングした場合に,同じ近似タスクに対して同様の平均誤差を発生させる。
解析で現れるユニティの特定の根は、整数$k$で$e^{2\pi i / (k+2)}$と書けないので、関連するジョーンズ多項式評価は、通常の$SU(2)$チャーン・サイモンズ理論においてウィルソンループ作用素の非正規化期待値によって与えられるものではない。
代わりに、これらの期待値の分数レベルへの解析的継続に対応する。
我々は,解析的に連続するチャーン・シモンズ積分サイクルにおいて,継続手順を簡潔にレビューし,近似式が敏感なレフシェッツのチムルの存在についてコメントする。
関連論文リスト
- Convergence Rate Analysis of LION [54.28350823319057]
LION は、勾配カルシュ=クーン=T (sqrtdK-)$で測定された $cal(sqrtdK-)$ の反復を収束する。
従来のSGDと比較して,LIONは損失が小さく,性能も高いことを示す。
論文 参考訳(メタデータ) (2024-11-12T11:30:53Z) - Learning with Norm Constrained, Over-parameterized, Two-layer Neural Networks [54.177130905659155]
近年の研究では、再生カーネルヒルベルト空間(RKHS)がニューラルネットワークによる関数のモデル化に適した空間ではないことが示されている。
本稿では,有界ノルムを持つオーバーパラメータ化された2層ニューラルネットワークに適した関数空間について検討する。
論文 参考訳(メタデータ) (2024-04-29T15:04:07Z) - A Mean-Field Analysis of Neural Stochastic Gradient Descent-Ascent for Functional Minimax Optimization [90.87444114491116]
本稿では,超パラメトリック化された2層ニューラルネットワークの無限次元関数クラス上で定義される最小最適化問題について検討する。
i) 勾配降下指数アルゴリズムの収束と, (ii) ニューラルネットワークの表現学習に対処する。
その結果、ニューラルネットワークによって誘導される特徴表現は、ワッサーシュタイン距離で測定された$O(alpha-1)$で初期表現から逸脱することが許された。
論文 参考訳(メタデータ) (2024-04-18T16:46:08Z) - Analysis of the expected $L_2$ error of an over-parametrized deep neural
network estimate learned by gradient descent without regularization [7.977229957867868]
近年の研究では、正規化された経験的リスクに勾配降下を適用して学習した過度パラメータ化されたディープニューラルネットワークによって定義される推定値が、普遍的に一貫していることが示されている。
本稿では、同様の結果を得るために正規化項は必要ないことを示す。
論文 参考訳(メタデータ) (2023-11-24T17:04:21Z) - Polynomial-Time Solutions for ReLU Network Training: A Complexity
Classification via Max-Cut and Zonotopes [70.52097560486683]
我々は、ReLUネットワークの近似の難しさがマックス・カッツ問題の複雑さを反映しているだけでなく、特定の場合において、それと完全に一致することを証明した。
特に、$epsilonleqsqrt84/83-1approx 0.006$とすると、目的値に関して相対誤差$epsilon$でReLUネットワーク対象の近似グローバルデータセットを見つけることはNPハードであることが示される。
論文 参考訳(メタデータ) (2023-11-18T04:41:07Z) - Convergence Analysis of the Deep Galerkin Method for Weak Solutions [9.920833699101195]
DGMWの収束率は$mathcalO(n-1/d)$であり、弱解に対する最初の収束結果である。
我々は、$H1$ノルムの近似誤差の上限を導出し、Rademacher複雑性による統計的誤差を導出する。
論文 参考訳(メタデータ) (2023-02-05T15:25:16Z) - Provably Efficient Convergence of Primal-Dual Actor-Critic with
Nonlinear Function Approximation [15.319335698574932]
The first efficient convergence result with primal-dual actor-critic with a convergence of $mathcalOleft ascent(Nright)Nright)$ under Polyian sample。
Open GymAI連続制御タスクの結果。
論文 参考訳(メタデータ) (2022-02-28T15:16:23Z) - Mean-Square Analysis with An Application to Optimal Dimension Dependence
of Langevin Monte Carlo [60.785586069299356]
この研究は、2-ワッサーシュタイン距離におけるサンプリング誤差の非同相解析のための一般的な枠組みを提供する。
我々の理論解析は数値実験によってさらに検証される。
論文 参考訳(メタデータ) (2021-09-08T18:00:05Z) - Towards an Understanding of Benign Overfitting in Neural Networks [104.2956323934544]
現代の機械学習モデルは、しばしば膨大な数のパラメータを使用し、通常、トレーニング損失がゼロになるように最適化されている。
ニューラルネットワークの2層構成において、これらの良質な過適合現象がどのように起こるかを検討する。
本稿では,2層型ReLUネットワーク補間器を極小最適学習率で実現可能であることを示す。
論文 参考訳(メタデータ) (2021-06-06T19:08:53Z) - Symmetry-Resolved Entanglement in AdS${}_3$/CFT${}_2$ coupled to $U(1)$
Chern-Simons Theory [0.0]
我々は、AdS$_3$/CFT$$と$U(1)$チャーン・サイモンズ理論に結合した対称性分解エントロピーを考える。
我々は,ポアンカーパッチや大域AdS$_3$の対称性分解エントロピーと円錐欠陥の導出に本手法を用いる。
論文 参考訳(メタデータ) (2020-12-21T12:05:34Z) - On the Effectiveness of Richardson Extrapolation in Machine Learning [0.0]
Richardson は数値解析の手法であり、推定法の近似誤差を改善することができる。
リチャードソン補間法は性能に大きな損失を伴わず、時には大きな利益をもたらすことが示される。
論文 参考訳(メタデータ) (2020-02-07T15:18:04Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。