論文の概要: Differentiable Programming of Isometric Tensor Networks
- arxiv url: http://arxiv.org/abs/2110.03898v1
- Date: Fri, 8 Oct 2021 05:29:41 GMT
- ステータス: 処理完了
- システム内更新日: 2021-10-11 16:53:05.422801
- Title: Differentiable Programming of Isometric Tensor Networks
- Title(参考訳): 等尺テンソルネットワークの微分プログラミング
- Authors: Chenhua Geng, Hong-Ye Hu, Yijian Zou
- Abstract要約: 微分プログラミングは、自動微分(auto-differentiation)として知られる勾配の自動計算による大規模最適化を可能にする新しいプログラミングパラダイムである。
ここでは、多スケールエンタングルメント再正規化アンサッツ(MERA)やテンソルネットワーク再正規化(TNR)に応用した等尺制約のあるテンソルネットワークに微分可能プログラミングを拡張した。
我々は1次元臨界量子イジングスピンチェーンと2次元古典イジングモデルを用いて数値解析を行った。
古典的モデルの1次元量子モデルと内部エネルギーの基底状態エネルギーを計算し、スケーリング作用素のスケーリング次元を計算し、それらがすべて一致することを確かめる。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Differentiable programming is a new programming paradigm which enables large
scale optimization through automatic calculation of gradients also known as
auto-differentiation. This concept emerges from deep learning, and has also
been generalized to tensor network optimizations. Here, we extend the
differentiable programming to tensor networks with isometric constraints with
applications to multiscale entanglement renormalization ansatz (MERA) and
tensor network renormalization (TNR). By introducing several gradient-based
optimization methods for the isometric tensor network and comparing with
Evenbly-Vidal method, we show that auto-differentiation has a better
performance for both stability and accuracy. We numerically tested our methods
on 1D critical quantum Ising spin chain and 2D classical Ising model. We
calculate the ground state energy for the 1D quantum model and internal energy
for the classical model, and scaling dimensions of scaling operators and find
they all agree with the theory well.
- Abstract(参考訳): 微分プログラミングは、自動微分(auto-differentiation)として知られる勾配の自動計算による大規模最適化を可能にする新しいプログラミングパラダイムである。
この概念はディープラーニングから生まれ、テンソルネットワーク最適化にも一般化されている。
本稿では,等尺制約のあるテンソルネットワークに微分可能プログラミングを拡張し,マルチスケールエンタングルメント再正規化 ansatz (mera) とテンソルネットワーク再正規化 (tnr) に適用する。
等尺テンソルネットワークの勾配に基づく最適化手法をいくつか導入し, 均等分法との比較を行った結果, 自己微分は安定性と精度に優れることがわかった。
我々は1次元臨界量子イジングスピンチェーンと2次元古典イジングモデルを用いて数値解析を行った。
1次元量子モデルの基底状態エネルギーと古典モデルの内部エネルギーを計算し、スケーリング作用素のスケーリング次元を計算し、それらがすべて理論によく一致することを発見した。
関連論文リスト
- Compact Multi-Threshold Quantum Information Driven Ansatz For Strongly Interactive Lattice Spin Models [0.0]
近似量子相互情報(QMI)に基づくアンザッツ建築の体系的手順を提案する。
提案手法は,QMI値に基づいて各層の量子ビット対が選択される層状アンサッツを生成し,より効率的な状態生成と最適化ルーチンを実現する。
その結果,Multi-QIDA法は高い精度を維持しながら計算複雑性を低減し,格子スピンモデルにおける量子シミュレーションに有望なツールであることがわかった。
論文 参考訳(メタデータ) (2024-08-05T17:07:08Z) - Enhancing lattice kinetic schemes for fluid dynamics with Lattice-Equivariant Neural Networks [79.16635054977068]
我々はLattice-Equivariant Neural Networks (LENNs)と呼ばれる新しい同変ニューラルネットワークのクラスを提案する。
我々の手法は、ニューラルネットワークに基づく代理モデルLattice Boltzmann衝突作用素の学習を目的とした、最近導入されたフレームワーク内で開発されている。
本研究は,実世界のシミュレーションにおける機械学習強化Lattice Boltzmann CFDの実用化に向けて展開する。
論文 参考訳(メタデータ) (2024-05-22T17:23:15Z) - Scalable Imaginary Time Evolution with Neural Network Quantum States [0.0]
ニューラルネットワーク量子状態(NQS)としての量子波関数の表現は、多体量子系の基底状態を見つけるための強力な変分アンサッツを提供する。
我々は、計量テンソルの計算をバイパスするアプローチを導入し、代わりにユークリッド計量を用いた一階降下にのみ依存する。
我々は,NQSのエネルギーが減少するまで最適な時間ステップを決定し,目標を固定し,適応的に安定させる。
論文 参考訳(メタデータ) (2023-07-28T12:26:43Z) - GloptiNets: Scalable Non-Convex Optimization with Certificates [61.50835040805378]
本稿では,ハイパーキューブやトーラス上のスムーズな関数を扱う証明書を用いた非キューブ最適化手法を提案する。
スペクトルの減衰に固有の対象関数の正則性を活用することにより、正確な証明を取得し、高度で強力なニューラルネットワークを活用することができる。
論文 参考訳(メタデータ) (2023-06-26T09:42:59Z) - Scaling Structured Inference with Randomization [64.18063627155128]
本稿では、構造化されたモデルを数万の潜在状態に拡張するためにランダム化された動的プログラミング(RDP)のファミリを提案する。
我々の手法は古典的DPベースの推論に広く適用できる。
また、自動微分とも互換性があり、ニューラルネットワークとシームレスに統合できる。
論文 参考訳(メタデータ) (2021-12-07T11:26:41Z) - Joint inference and input optimization in equilibrium networks [68.63726855991052]
ディープ均衡モデル(Deep equilibrium model)は、従来のネットワークの深さを予測し、代わりに単一の非線形層の固定点を見つけることによってネットワークの出力を計算するモデルのクラスである。
この2つの設定の間には自然なシナジーがあることが示されています。
この戦略は、生成モデルのトレーニングや、潜時符号の最適化、デノベートやインペインティングといった逆問題に対するトレーニングモデル、対逆トレーニング、勾配に基づくメタラーニングなど、様々なタスクにおいて実証される。
論文 参考訳(メタデータ) (2021-11-25T19:59:33Z) - Equivariant vector field network for many-body system modeling [65.22203086172019]
Equivariant Vector Field Network (EVFN) は、新しい同変層と関連するスカラー化およびベクトル化層に基づいて構築されている。
シミュレーションされたニュートン力学系の軌跡を全観測データと部分観測データで予測する手法について検討した。
論文 参考訳(メタデータ) (2021-10-26T14:26:25Z) - Tensor-Train Networks for Learning Predictive Modeling of
Multidimensional Data [0.0]
有望な戦略は、物理的および化学的用途で非常に成功したテンソルネットワークに基づいています。
本研究では, 多次元回帰モデルの重みをテンソルネットワークを用いて学習し, 強力なコンパクト表現を実現することを示した。
TT形式の重みを計算力の低減で近似するための最小二乗を交互に行うアルゴリズムが提案されている。
論文 参考訳(メタデータ) (2021-01-22T16:14:38Z) - Optimization schemes for unitary tensor-network circuit [0.0]
本稿では,異なるネットワーク構造を持つユニタリテンソルネットワーク回路の変分最適化について論じる。
アンザッツは、よく開発されたマルチスケールエンタングルメント再正規化アルゴリズムの一般化に基づいて実行される。
本稿では,異なるネットワーク構造に対するベンチマーク計算について述べる。
論文 参考訳(メタデータ) (2020-09-05T21:57:28Z) - Riemannian optimization of isometric tensor networks [0.0]
等長線のテンソルネットワークを最適化するために、勾配に基づく最適化手法が、例えば1次元量子ハミルトニアンの基底状態を表すためにどのように用いられるかを示す。
これらの手法を無限MPSとMERAの文脈に適用し、これまでに知られていた最適化手法よりも優れたベンチマーク結果を示す。
論文 参考訳(メタデータ) (2020-07-07T17:19:05Z) - Communication-Efficient Distributed Stochastic AUC Maximization with
Deep Neural Networks [50.42141893913188]
本稿では,ニューラルネットワークを用いた大規模AUCのための分散変数について検討する。
我々のモデルは通信ラウンドをはるかに少なくし、理論上はまだ多くの通信ラウンドを必要としています。
いくつかのデータセットに対する実験は、我々の理論の有効性を示し、我々の理論を裏付けるものである。
論文 参考訳(メタデータ) (2020-05-05T18:08:23Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。