論文の概要: Conformal Fields from Neural Networks
- arxiv url: http://arxiv.org/abs/2409.12222v1
- Date: Wed, 18 Sep 2024 18:00:00 GMT
- ステータス: 処理完了
- システム内更新日: 2024-11-07 15:49:40.202472
- Title: Conformal Fields from Neural Networks
- Title(参考訳): ニューラルネットワークからの共形場
- Authors: James Halverson, Joydeep Naskar, Jiahua Tian,
- Abstract要約: 埋め込み形式を使い、$D$次元の共形体を構成する。
スペクトルを解明する4次元共形ブロック分解を行う。
ディープ・ネットワークへの拡張は、各層における共形場を構成する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We use the embedding formalism to construct conformal fields in $D$ dimensions, by restricting Lorentz-invariant ensembles of homogeneous neural networks in $(D+2)$ dimensions to the projective null cone. Conformal correlators may be computed using the parameter space description of the neural network. Exact four-point correlators are computed in a number of examples, and we perform a 4D conformal block decomposition that elucidates the spectrum. In some examples the analysis is facilitated by recent approaches to Feynman integrals. Generalized free CFTs are constructed using the infinite-width Gaussian process limit of the neural network, enabling a realization of the free boson. The extension to deep networks constructs conformal fields at each subsequent layer, with recursion relations relating their conformal dimensions and four-point functions. Numerical approaches are discussed.
- Abstract(参考訳): 埋め込み形式は、$D$次元の共形体を構成するために、$(D+2)$次元の同質ニューラルネットワークのローレンツ不変アンサンブルを射影型ヌルコーンに制限することで用いられる。
共形相関器は、ニューラルネットワークのパラメータ空間記述を用いて計算することができる。
特定の4点相関器を多数の例で計算し、スペクトルを解明する4次元共形ブロック分解を行う。
いくつかの例では、この解析はファインマン積分に対する最近のアプローチによって促進される。
一般化自由CFTは、ニューラルネットワークの無限幅ガウス過程限界を用いて構築され、自由ボソンの実現を可能にする。
ディープ・ネットワークへの拡張は、各層における共形体を構成し、それらの共形次元と4点関数に関する再帰関係を持つ。
数値的なアプローチについて論じる。
関連論文リスト
- Learning with Norm Constrained, Over-parameterized, Two-layer Neural Networks [54.177130905659155]
近年の研究では、再生カーネルヒルベルト空間(RKHS)がニューラルネットワークによる関数のモデル化に適した空間ではないことが示されている。
本稿では,有界ノルムを持つオーバーパラメータ化された2層ニューラルネットワークに適した関数空間について検討する。
論文 参考訳(メタデータ) (2024-04-29T15:04:07Z) - Tangent Bundle Filters and Neural Networks: from Manifolds to Cellular
Sheaves and Back [114.01902073621577]
畳み込みを用いて、タンジェントバンドルフィルタとタンジェントバンドルニューラルネットワーク(TNN)を定義する。
我々は、TNNを時間領域と空間領域の両方で識別し、その離散性は、最近導入されたSheaf Neural Networksの原則的な変種であることを示す。
単体2次元球面上の接ベクトル場の復調作業における提案手法の有効性を数値的に評価する。
論文 参考訳(メタデータ) (2022-10-26T21:55:45Z) - Solving parametric partial differential equations with deep rectified
quadratic unit neural networks [38.16617079681564]
本研究では、パラメトリックPDEの解マップを近似するための深部修正二次単位(ReQU)ニューラルネットワークの表現力について検討する。
精度を実現するために必要な深部ReQUニューラルネットワークのサイズに基づいて,上界$mathcalOleft(d3log_2qlog_2 (1/epsilon) right)$を導出する。
論文 参考訳(メタデータ) (2022-03-14T10:15:29Z) - Two-layer neural networks with values in a Banach space [1.90365714903665]
本研究では,領域と範囲がバラッハ空間である2層ニューラルネットワークについて検討する。
非線形性として、正の部分を取る格子演算を選択し、$mathbb Rd$-valued ニューラルネットワークの場合、これはReLU活性化関数に対応する。
論文 参考訳(メタデータ) (2021-05-05T14:54:24Z) - Parametric Complexity Bounds for Approximating PDEs with Neural Networks [41.46028070204925]
pdeの係数が小さなニューラルネットワークで表現できる場合、入力された$d$でスケール的に解を近似するために必要なパラメータは、ニューラルネットワークのパラメータ数に比例することを証明する。
我々の証明は、PDEの解に収束する適切な空間における勾配降下をシミュレートするニューラルネットワークの構築に基づいている。
論文 参考訳(メタデータ) (2021-03-03T02:42:57Z) - Theory of Deep Convolutional Neural Networks II: Spherical Analysis [9.099589602551573]
単位球面$mathbbSd-1$ of $mathbbRd$ 上の近似関数に適用された深部畳み込みニューラルネットワークの族を考える。
我々の解析は、近似関数がソボレフ空間 $Wr_infty (mathbbSd-1)$ に$r>0$ あるいは加法リッジ形式を取るとき、一様近似の速度を示す。
論文 参考訳(メタデータ) (2020-07-28T14:54:30Z) - Provably Efficient Neural Estimation of Structural Equation Model: An
Adversarial Approach [144.21892195917758]
一般化構造方程式モデル(SEM)のクラスにおける推定について検討する。
線形作用素方程式をmin-maxゲームとして定式化し、ニューラルネットワーク(NN)でパラメータ化し、勾配勾配を用いてニューラルネットワークのパラメータを学習する。
提案手法は,サンプル分割を必要とせず,確固とした収束性を持つNNをベースとしたSEMの抽出可能な推定手順を初めて提供する。
論文 参考訳(メタデータ) (2020-07-02T17:55:47Z) - Neural Operator: Graph Kernel Network for Partial Differential Equations [57.90284928158383]
この作業はニューラルネットワークを一般化し、無限次元空間(演算子)間の写像を学習できるようにすることである。
非線形活性化関数と積分作用素のクラスを構成することにより、無限次元写像の近似を定式化する。
実験により,提案したグラフカーネルネットワークには所望の特性があり,最先端技術と比較した場合の競合性能を示すことが確認された。
論文 参考訳(メタデータ) (2020-03-07T01:56:20Z) - Convex Geometry and Duality of Over-parameterized Neural Networks [70.15611146583068]
有限幅2層ReLUネットワークの解析のための凸解析手法を開発した。
正規化学習問題に対する最適解が凸集合の極点として特徴づけられることを示す。
高次元では、トレーニング問題は無限に多くの制約を持つ有限次元凸問題としてキャストできることが示される。
論文 参考訳(メタデータ) (2020-02-25T23:05:33Z) - Neural Networks are Convex Regularizers: Exact Polynomial-time Convex
Optimization Formulations for Two-layer Networks [70.15611146583068]
我々は、線形整列ユニット(ReLU)を用いた2層ニューラルネットワークのトレーニングの正確な表現を開発する。
我々の理論は半無限双対性と最小ノルム正規化を利用する。
論文 参考訳(メタデータ) (2020-02-24T21:32:41Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。