論文の概要: Simulating first-order phase transition with hierarchical autoregressive
networks
- arxiv url: http://arxiv.org/abs/2212.04955v1
- Date: Fri, 9 Dec 2022 16:04:56 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-12 16:07:03.448298
- Title: Simulating first-order phase transition with hierarchical autoregressive
networks
- Title(参考訳): 階層的自己回帰ネットワークによる一階相転移のシミュレーション
- Authors: Piotr Bia{\l}as, Paulina Czarnota, Piotr Korcyl, Tomasz Stebel
- Abstract要約: 階層型自己回帰ニューラルネットワーク(HAN)ネットワークサンプリングアルゴリズムを2次元の$Q$状態ポッツモデルに適用する。
本稿では,一階相転移近傍のアプローチの性能を定量化し,Wolffクラスタアルゴリズムと比較する。
- 参考スコア(独自算出の注目度): 0.04588028371034406
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: We apply the Hierarchical Autoregressive Neural (HAN) network sampling
algorithm to the two-dimensional $Q$-state Potts model and perform simulations
around the phase transition at $Q=12$. We quantify the performance of the
approach in the vicinity of the first-order phase transition and compare it
with that of the Wolff cluster algorithm. We find a significant improvement as
far as the statistical uncertainty is concerned at a similar numerical effort.
In order to efficiently train large neural networks we introduce the technique
of pre-training. It allows to train some neural networks using smaller system
sizes and then employing them as starting configurations for larger system
sizes. This is possible due to the recursive construction of our hierarchical
approach. Our results serve as a demonstration of the performance of the
hierarchical approach for systems exhibiting bimodal distributions.
Additionally, we provide estimates of the free energy and entropy in the
vicinity of the phase transition with statistical uncertainties of the order of
$10^{-7}$ for the former and $10^{-3}$ for the latter based on a statistics of
$10^6$ configurations.
- Abstract(参考訳): 階層型自己回帰ニューラルネットワーク(han)ネットワークサンプリングアルゴリズムを2次元$q$-state pottsモデルに適用し,相転移に関するシミュレーションを$q=12$で実施する。
我々は,1次相転移近傍におけるアプローチの性能を定量化し,wolffクラスタアルゴリズムと比較する。
統計学的不確実性が同様の数値的努力にかかわる限り、大きな改善が見られる。
大規模ニューラルネットワークを効率的にトレーニングするために,事前学習技術を導入する。
これにより、より小さなシステムサイズを使用してニューラルネットワークをトレーニングし、より大きなシステムサイズのための開始設定として使用することが可能になる。
これは階層的アプローチの再帰的構築によって可能になります。
この結果は,双モード分布を示すシステムに対する階層的手法の性能の実証となる。
さらに, 相転移近傍の自由エネルギーとエントロピーを推定し, 前者が10^{-7}$, 後者が10^6$構成の統計に基づいて10^{-3}$の統計的不確実性を示した。
関連論文リスト
- Efficient Neural Network Approaches for Conditional Optimal Transport with Applications in Bayesian Inference [1.740133468405535]
静的および条件付き最適輸送(COT)問題の解を近似する2つのニューラルネットワークアプローチを提案する。
我々は、ベンチマークデータセットとシミュレーションに基づく逆問題を用いて、両アルゴリズムを競合する最先端のアプローチと比較する。
論文 参考訳(メタデータ) (2023-10-25T20:20:09Z) - Optimization Guarantees of Unfolded ISTA and ADMM Networks With Smooth
Soft-Thresholding [57.71603937699949]
我々は,学習エポックの数の増加とともに,ほぼゼロに近いトレーニング損失を達成するための最適化保証について検討した。
トレーニングサンプル数に対する閾値は,ネットワーク幅の増加とともに増加することを示す。
論文 参考訳(メタデータ) (2023-09-12T13:03:47Z) - Improved Convergence Guarantees for Shallow Neural Networks [91.3755431537592]
勾配降下法により訓練された深度2ニューラルネットの収束度を世界最小とする。
我々のモデルには、二次損失関数による回帰、完全連結フィードフォワードアーキテクチャ、RelUアクティベーション、ガウスデータインスタンス、逆ラベルといった特徴がある。
彼らは、少なくとも我々のモデルでは、収束現象がNTK体制をはるかに超越していることを強く示唆している」。
論文 参考訳(メタデータ) (2022-12-05T14:47:52Z) - Hierarchical autoregressive neural networks for statistical systems [0.05156484100374058]
我々は、例えばスピンのような物理的自由度の階層的な結合を、システムの線形範囲$L$のスケーリングに置き換えるニューロンに提案する。
我々は,2次元Isingモデルに対して,最大128×128$スピンの格子をシミュレートし,時間ベンチマークを512×512$の格子に到達させることで,その2次元Isingモデルに対するアプローチを実証した。
論文 参考訳(メタデータ) (2022-03-21T13:55:53Z) - Neural Capacitance: A New Perspective of Neural Network Selection via
Edge Dynamics [85.31710759801705]
現在の実践は、性能予測のためのモデルトレーニングにおいて高価な計算コストを必要とする。
本稿では,学習中のシナプス接続(エッジ)上の制御ダイナミクスを解析し,ニューラルネットワーク選択のための新しいフレームワークを提案する。
我々のフレームワークは、ニューラルネットワークトレーニング中のバックプロパゲーションがシナプス接続の動的進化と等価であるという事実に基づいて構築されている。
論文 参考訳(メタデータ) (2022-01-11T20:53:15Z) - Scale Mixtures of Neural Network Gaussian Processes [22.07524388784668]
我々は、末層パラメータのスケールに先行する$mathrmNNGP$のスケール混合を導入する。
ある種のスケールの先行で重み付きプロセスが得られ、逆ガンマ分布の場合、学生の$t$プロセスが復元されることを示す。
さらに、ニューラルネットワークを事前設定で分析し、勾配降下を訓練し、$mathrmNNGP$と同じような結果を得る。
論文 参考訳(メタデータ) (2021-07-03T11:02:18Z) - Communication-Efficient Distributed Stochastic AUC Maximization with
Deep Neural Networks [50.42141893913188]
本稿では,ニューラルネットワークを用いた大規模AUCのための分散変数について検討する。
我々のモデルは通信ラウンドをはるかに少なくし、理論上はまだ多くの通信ラウンドを必要としています。
いくつかのデータセットに対する実験は、我々の理論の有効性を示し、我々の理論を裏付けるものである。
論文 参考訳(メタデータ) (2020-05-05T18:08:23Z) - MSE-Optimal Neural Network Initialization via Layer Fusion [68.72356718879428]
ディープニューラルネットワークは、さまざまな分類と推論タスクに対して最先端のパフォーマンスを達成する。
グラデーションと非進化性の組み合わせは、学習を新しい問題の影響を受けやすいものにする。
確率変数を用いて学習した深層ネットワークの近傍層を融合する手法を提案する。
論文 参考訳(メタデータ) (2020-01-28T18:25:15Z) - Model Fusion via Optimal Transport [64.13185244219353]
ニューラルネットワークのための階層モデル融合アルゴリズムを提案する。
これは、不均一な非i.d.データに基づいてトレーニングされたニューラルネットワーク間での"ワンショット"な知識伝達に成功していることを示す。
論文 参考訳(メタデータ) (2019-10-12T22:07:15Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。