論文の概要: Solving frustrated Ising models using tensor networks
- arxiv url: http://arxiv.org/abs/2006.14341v4
- Date: Wed, 9 Dec 2020 16:45:13 GMT
- ステータス: 処理完了
- システム内更新日: 2023-05-12 20:05:15.770353
- Title: Solving frustrated Ising models using tensor networks
- Title(参考訳): テンソルネットワークを用いたフラストレーションイジングモデルの解法
- Authors: Bram Vanhecke, Jeanne Colbois, Laurens Vanderstraeten, Frank
Verstraete, Fr\'ed\'eric Mila
- Abstract要約: 無限テンソルネットワーク % の観点でフラストレーションのあるイジングモデルを研究するための枠組みを開発する。
共有結合の重みを含むクラスタの選択を最適化することは、テンソルネットワークの収縮性にとって重要であることを示す。
本手法は, フラストレーションを施したイジングスピン系の残留エントロピーを, 次ネスト近傍の相互作用を持つ加ごめ格子上で計算することにより, 有効性を示す。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Motivated by the recent success of tensor networks to calculate the residual
entropy of spin ice and kagome Ising models, we develop a general framework to
study frustrated Ising models in terms of infinite tensor networks %, i.e.
tensor networks that can be contracted using standard algorithms for infinite
systems. This is achieved by reformulating the problem as local rules for
configurations on overlapping clusters chosen in such a way that they relieve
the frustration, i.e. that the energy can be minimized independently on each
cluster. We show that optimizing the choice of clusters, including the weight
on shared bonds, is crucial for the contractibility of the tensor networks, and
we derive some basic rules and a linear program to implement them. We
illustrate the power of the method by computing the residual entropy of a
frustrated Ising spin system on the kagome lattice with next-next-nearest
neighbour interactions, vastly outperforming Monte Carlo methods in speed and
accuracy. The extension to finite-temperature is briefly discussed.
- Abstract(参考訳): スピンアイスとカゴメイジングモデルの残留エントロピーを計算するために最近テンソルネットワークが成功したことに刺激を受け、イジングモデルの無限テンソルネットワーク %、すなわち無限系の標準アルゴリズムを用いて収縮できるテンソルネットワークの観点から、フラストレーションイジングモデルを研究するための一般的な枠組みを開発した。
これは、重なり合ったクラスタの構成のローカルルールとして問題を再構成することで、フラストレーションを和らげる、すなわち各クラスタで独立してエネルギーを最小化できる、という方法によって達成される。
共有結合の重みを含むクラスターの選択を最適化することがテンソルネットワークの契約可能性に不可欠であることを示し,それらの実現のための基本的なルールと線形プログラムを導出する。
本手法は,次のアネレスト近傍相互作用を伴うカゴメ格子上のフラストレーションイジングスピン系の残留エントロピーを計算し,モンテカルロ法を速度と精度で圧倒的に上回る性能を示す。
有限温度への拡張について概説する。
関連論文リスト
- Quick design of feasible tensor networks for constrained combinatorial optimization [1.8775413720750924]
近年,実用化のための制約付き最適化問題に対して,テンソルネットワークが適用されている。
1つのアプローチは、nilpotent-matrix操作でテンソルネットワークを構築することである。
提案手法は,制約付き最適化問題に対する実現可能なテンソルネットワークの発見を容易にすることが期待されている。
論文 参考訳(メタデータ) (2024-09-03T08:36:23Z) - Enhancing lattice kinetic schemes for fluid dynamics with Lattice-Equivariant Neural Networks [79.16635054977068]
我々はLattice-Equivariant Neural Networks (LENNs)と呼ばれる新しい同変ニューラルネットワークのクラスを提案する。
我々の手法は、ニューラルネットワークに基づく代理モデルLattice Boltzmann衝突作用素の学習を目的とした、最近導入されたフレームワーク内で開発されている。
本研究は,実世界のシミュレーションにおける機械学習強化Lattice Boltzmann CFDの実用化に向けて展開する。
論文 参考訳(メタデータ) (2024-05-22T17:23:15Z) - Cons-training tensor networks [2.8834278113855896]
テンソルネットワークと呼ばれる新しいファミリーを導入する。
textitconstrained matrix product state (MPS)
これらのネットワークは、不等式を含むちょうど任意の離散線型制約をスパースブロック構造に含んでいる。
これらのネットワークは、特に、可能空間上で厳密にサポートされた分散をモデル化するために調整されている。
論文 参考訳(メタデータ) (2024-05-15T00:13:18Z) - Optimization Guarantees of Unfolded ISTA and ADMM Networks With Smooth
Soft-Thresholding [57.71603937699949]
我々は,学習エポックの数の増加とともに,ほぼゼロに近いトレーニング損失を達成するための最適化保証について検討した。
トレーニングサンプル数に対する閾値は,ネットワーク幅の増加とともに増加することを示す。
論文 参考訳(メタデータ) (2023-09-12T13:03:47Z) - Learning Coherent Clusters in Weakly-Connected Network Systems [7.766921168069532]
本稿では,コンポーネントが密結合な大規模動的ネットワークのための構造保存モデル手法を提案する。
重みブロックモデルからネットワークグラフをランダムに生成する場合、近似誤差の上限を与える。
論文 参考訳(メタデータ) (2022-11-28T13:32:25Z) - Robust Training and Verification of Implicit Neural Networks: A
Non-Euclidean Contractive Approach [64.23331120621118]
本稿では,暗黙的ニューラルネットワークのトレーニングとロバスト性検証のための理論的および計算的枠組みを提案する。
組込みネットワークを導入し、組込みネットワークを用いて、元のネットワークの到達可能な集合の超近似として$ell_infty$-normボックスを提供することを示す。
MNISTデータセット上で暗黙的なニューラルネットワークをトレーニングするためにアルゴリズムを適用し、我々のモデルの堅牢性と、文献における既存のアプローチを通じてトレーニングされたモデルを比較する。
論文 参考訳(メタデータ) (2022-08-08T03:13:24Z) - Improvements to Gradient Descent Methods for Quantum Tensor Network
Machine Learning [0.0]
任意のテンソルネットワークの初期化に成功したコピーノード方式を提案する。
本稿では、量子インスパイアされたテンソルネットワークモデルを生成する手法の組み合わせを示す数値的な結果を示す。
論文 参考訳(メタデータ) (2022-03-03T19:00:40Z) - Tensor-Train Networks for Learning Predictive Modeling of
Multidimensional Data [0.0]
有望な戦略は、物理的および化学的用途で非常に成功したテンソルネットワークに基づいています。
本研究では, 多次元回帰モデルの重みをテンソルネットワークを用いて学習し, 強力なコンパクト表現を実現することを示した。
TT形式の重みを計算力の低減で近似するための最小二乗を交互に行うアルゴリズムが提案されている。
論文 参考訳(メタデータ) (2021-01-22T16:14:38Z) - Optimizing Mode Connectivity via Neuron Alignment [84.26606622400423]
経験的に、損失関数の局所ミニマは、損失がほぼ一定であるようなモデル空間の学習曲線で接続することができる。
本稿では,ネットワークの重み変化を考慮し,対称性がランドスケープ・コネクティビティに与える影響を明らかにするための,より一般的な枠組みを提案する。
論文 参考訳(メタデータ) (2020-09-05T02:25:23Z) - Multipole Graph Neural Operator for Parametric Partial Differential
Equations [57.90284928158383]
物理系をシミュレーションするためのディープラーニングベースの手法を使用する際の大きな課題の1つは、物理ベースのデータの定式化である。
線形複雑度のみを用いて、あらゆる範囲の相互作用をキャプチャする、新しいマルチレベルグラフニューラルネットワークフレームワークを提案する。
実験により, 離散化不変解演算子をPDEに学習し, 線形時間で評価できることを確認した。
論文 参考訳(メタデータ) (2020-06-16T21:56:22Z) - Monotone operator equilibrium networks [97.86610752856987]
我々はモノトン作用素の理論に基づく新しい暗黙深度モデル、モノトン演算子平衡ネットワーク(monDEQ)を開発した。
暗黙的ネットワークの平衡点の発見と単調作用素分割問題の解法との密接な関係を示す。
次に、ネットワークのパラメータ化を開発し、全ての作用素が単調であり続けることを保証し、ユニークな平衡点の存在を保証する。
論文 参考訳(メタデータ) (2020-06-15T17:57:31Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。