論文の概要: The R-mAtrIx Net
- arxiv url: http://arxiv.org/abs/2304.07247v1
- Date: Fri, 14 Apr 2023 16:50:42 GMT
- ステータス: 処理完了
- システム内更新日: 2023-04-17 12:59:42.153963
- Title: The R-mAtrIx Net
- Title(参考訳): R-mAtrIx ネット
- Authors: Shailesh Lal, Suvajit Majumder, Evgeny Sobko
- Abstract要約: 与えられた量子可積分スピンチェーンに対してR行列を出力できる新しいニューラルネットワークアーキテクチャを提供する。
また、既に学んだモデルの周りにハミルトニアンの空間を探索し、彼らが属する可積分スピン鎖の族を再構成する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We provide a novel Neural Network architecture that can: i) output R-matrix
for a given quantum integrable spin chain, ii) search for an integrable
Hamiltonian and the corresponding R-matrix under assumptions of certain
symmetries or other restrictions, iii) explore the space of Hamiltonians around
already learned models and reconstruct the family of integrable spin chains
which they belong to. The neural network training is done by minimizing loss
functions encoding Yang-Baxter equation, regularity and other model-specific
restrictions such as hermiticity. Holomorphy is implemented via the choice of
activation functions. We demonstrate the work of our Neural Network on the
two-dimensional spin chains of difference form. In particular, we reconstruct
the R-matrices for all 14 classes. We also demonstrate its utility as an
\textit{Explorer}, scanning a certain subspace of Hamiltonians and identifying
integrable classes after clusterisation. The last strategy can be used in
future to carve out the map of integrable spin chains in higher dimensions and
in more general settings where no analytical methods are available.
- Abstract(参考訳): 新たなニューラルネットワークアーキテクチャを提供しています
一 所定の量子可積分スピン鎖に対する出力R行列
二 ある種の対称性その他の制限の仮定の下で、可積分ハミルトニアン及び対応するR行列を探索すること。
三 すでに学んだモデルの周りにハミルトンの空間を探索し、彼らが属する可積分スピン鎖の族を再構成する。
ニューラルネットワークトレーニングは、ヤン・バクスター方程式、規則性、およびハーミシティなどのモデル固有の制約を符号化した損失関数を最小化する。
ホロモルフィズムは活性化関数の選択によって実装される。
我々は,差分形式の2次元スピンチェーン上でのニューラルネットワークの動作を実証する。
特に,14クラスすべてでr-行列を再構成した。
また、その有用性を \textit{explorer} として証明し、ハミルトニアンの特定の部分空間を走査し、クラスタ化後に可積分クラスを識別する。
将来の最後の戦略は、より高次元の積分可能なスピン鎖の写像と、解析的手法が利用できないより一般的な設定を彫るために使われる。
関連論文リスト
- Neural Control Variates with Automatic Integration [49.91408797261987]
本稿では,任意のニューラルネットワークアーキテクチャから学習可能なパラメトリック制御関数を構築するための新しい手法を提案する。
我々はこのネットワークを用いて積分器の反微分を近似する。
我々はウォーク・オン・スフィア・アルゴリズムを用いて偏微分方程式を解くために本手法を適用した。
論文 参考訳(メタデータ) (2024-09-23T06:04:28Z) - Symplectic Neural Networks Based on Dynamical Systems [0.0]
我々はハミルトン微分方程式の幾何に基づくシンプレクティックニューラルネットワーク(SympNets)のフレームワークを提案し,解析する。
SympNets はハミルトン微分同相空間の普遍近似子であり、解釈可能であり、非消滅性を持つ。
論文 参考訳(メタデータ) (2024-08-19T09:18:28Z) - A Unified Algebraic Perspective on Lipschitz Neural Networks [88.14073994459586]
本稿では,様々なタイプの1-Lipschitzニューラルネットワークを統一する新しい視点を提案する。
そこで本研究では,SDP(Common semidefinite Programming)条件の解析解を求めることによって,既存の多くの手法を導出し,一般化することができることを示す。
SDPベースのLipschitz Layers (SLL) と呼ばれる我々のアプローチは、非自明で効率的な凸ポテンシャル層の一般化を設計できる。
論文 参考訳(メタデータ) (2023-03-06T14:31:09Z) - Gradient Descent in Neural Networks as Sequential Learning in RKBS [63.011641517977644]
初期重みの有限近傍にニューラルネットワークの正確な電力系列表現を構築する。
幅にかかわらず、勾配降下によって生成されたトレーニングシーケンスは、正規化された逐次学習によって正確に複製可能であることを証明した。
論文 参考訳(メタデータ) (2023-02-01T03:18:07Z) - A Recursively Recurrent Neural Network (R2N2) Architecture for Learning
Iterative Algorithms [64.3064050603721]
本研究では,リカレントニューラルネットワーク (R2N2) にランゲ・クッタニューラルネットワークを一般化し,リカレントニューラルネットワークを最適化した反復アルゴリズムの設計を行う。
本稿では, 線形方程式系に対するクリロフ解法, 非線形方程式系に対するニュートン・クリロフ解法, 常微分方程式に対するルンゲ・クッタ解法と類似の繰り返しを計算問題クラスの入力・出力データに対して提案した超構造内における重みパラメータの正規化について述べる。
論文 参考訳(メタデータ) (2022-11-22T16:30:33Z) - Symplectically Integrated Symbolic Regression of Hamiltonian Dynamical
Systems [11.39873640706974]
シンプレクティック統合シンボリック回帰(SISR)は、データから物理支配方程式を学ぶための新しいテクニックである。
SISRは多層LSTM-RNNを用いて、確率的にハミルトン記号表現をサンプリングする。
論文 参考訳(メタデータ) (2022-09-04T03:17:40Z) - On Rademacher Complexity-based Generalization Bounds for Deep Learning [18.601449856300984]
Rademacherの複雑性に基づくアプローチは、畳み込みニューラルネットワーク(CNN)上の非空の一般化バウンダリを生成することができることを示す。
以上の結果から,ReLU,Leaky ReLU,Parametric Rectifier Linear Unit,Sigmoid,Tanhなどの特別なアクティベーション機能を持つCNNのネットワーク長に依存しないことがわかった。
論文 参考訳(メタデータ) (2022-08-08T17:24:04Z) - NeuralEF: Deconstructing Kernels by Deep Neural Networks [47.54733625351363]
従来のNystr"om式に基づく非パラメトリックなソリューションはスケーラビリティの問題に悩まされる。
最近の研究はパラメトリックなアプローチ、すなわち固有関数を近似するためにニューラルネットワークを訓練している。
教師なしおよび教師なしの学習問題の空間に一般化する新たな目的関数を用いて,これらの問題を解くことができることを示す。
論文 参考訳(メタデータ) (2022-04-30T05:31:07Z) - Representation Theorem for Matrix Product States [1.7894377200944511]
本稿では, 行列積状態(MPS)の普遍的表現能力について, 関数と連続関数の観点から検討する。
任意のゲートに対して対応するMPS構造の構築方法を提供することにより、MPSが任意の機能を正確に実現できることを示した。
我々は,MPSとニューラルネットワークの関係について検討し,スケール不変なシグモダル関数を持つMPSが一層ニューラルネットワークと等価であることを示す。
論文 参考訳(メタデータ) (2021-03-15T11:06:54Z) - Connecting Weighted Automata, Tensor Networks and Recurrent Neural
Networks through Spectral Learning [58.14930566993063]
我々は、形式言語と言語学からの重み付き有限オートマトン(WFA)、機械学習で使用されるリカレントニューラルネットワーク、テンソルネットワークの3つのモデル間の接続を提示する。
本稿では,連続ベクトル入力の列上に定義された線形2-RNNに対する最初の証明可能な学習アルゴリズムを提案する。
論文 参考訳(メタデータ) (2020-10-19T15:28:00Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。