論文の概要: Learning the Ising Model with Generative Neural Networks
- arxiv url: http://arxiv.org/abs/2001.05361v2
- Date: Fri, 8 May 2020 22:37:06 GMT
- ステータス: 処理完了
- システム内更新日: 2023-01-11 07:26:40.518803
- Title: Learning the Ising Model with Generative Neural Networks
- Title(参考訳): 生成ニューラルネットワークを用いたイジングモデル学習
- Authors: Francesco D'Angelo and Lucas B\"ottcher
- Abstract要約: ボルツマンマシン(RBM)と変分オートエンコーダ(VAE)の表現特性について検討する。
その結果, RBM と畳み込み VAE は, 磁化, エネルギー, スピンスピン相関の温度依存性を捉えることが可能であることが示唆された。
また, VAEの畳み込み層はスピン相関をモデル化するのに重要であるのに対し, RBMは畳み込みフィルタを使わずに類似あるいはさらに優れた性能を実現する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Recent advances in deep learning and neural networks have led to an increased
interest in the application of generative models in statistical and condensed
matter physics. In particular, restricted Boltzmann machines (RBMs) and
variational autoencoders (VAEs) as specific classes of neural networks have
been successfully applied in the context of physical feature extraction and
representation learning. Despite these successes, however, there is only
limited understanding of their representational properties and limitations. To
better understand the representational characteristics of RBMs and VAEs, we
study their ability to capture physical features of the Ising model at
different temperatures. This approach allows us to quantitatively assess
learned representations by comparing sample features with corresponding
theoretical predictions. Our results suggest that the considered RBMs and
convolutional VAEs are able to capture the temperature dependence of
magnetization, energy, and spin-spin correlations. The samples generated by
RBMs are more evenly distributed across temperature than those generated by
VAEs. We also find that convolutional layers in VAEs are important to model
spin correlations whereas RBMs achieve similar or even better performances
without convolutional filters.
- Abstract(参考訳): ディープラーニングとニューラルネットワークの最近の進歩は、統計的および凝縮物質物理学における生成モデルの適用への関心を高めた。
特に、ニューラルネットワークの特定のクラスとしての制限されたボルツマンマシン(RBM)と変分オートエンコーダ(VAE)は、物理的特徴抽出と表現学習の文脈でうまく適用されている。
しかし、これらの成功にもかかわらず、それらの表現的性質と制限についての理解は限られている。
RBMとVAEの表現特性をよりよく理解するために,Isingモデルの物理的特徴を異なる温度で捉える能力について検討した。
このアプローチにより、サンプルの特徴と対応する理論予測を比較することにより、学習した表現を定量的に評価できる。
その結果, RBM と畳み込み VAE は磁化, エネルギー, スピンスピン相関の温度依存性を捉えることができることがわかった。
rbmsが生成する試料はvaesが生成する試料よりも温度全体に均等に分布する。
また,vaesの畳み込み層はスピン相関のモデル化に重要であるのに対し,rbmは畳み込みフィルタを使わずに同様の性能を得られる。
関連論文リスト
- Parameter Estimation of Long Memory Stochastic Processes with Deep Neural Networks [0.0]
時系列モデルの長いメモリパラメータを推定するために,純粋にディープなニューラルネットワークに基づくアプローチを提案する。
ハースト指数のようなパラメータは、プロセスの長距離依存、粗さ、自己相似性を特徴づけるのに重要である。
論文 参考訳(メタデータ) (2024-10-03T03:14:58Z) - The twin peaks of learning neural networks [3.382017614888546]
近年の研究では、ニューラルネットワークの一般化誤差に対する二重発光現象の存在が示されている。
この現象とニューラルネットワークで表される関数の複雑さと感度の増大との関係について検討する。
論文 参考訳(メタデータ) (2024-01-23T10:09:14Z) - Investigating the generative dynamics of energy-based neural networks [0.35911228556176483]
制限ボルツマンマシン(RBM)の生成ダイナミクスについて検討する。
キメラ状態からトップダウンサンプリングを開始することにより,多種多様なデータプロトタイプを作成する能力を向上させることができることを示す。
また,本モデルでは,一世代軌道内で可能な全ての桁状態間の遷移が可能であることも確認した。
論文 参考訳(メタデータ) (2023-05-11T12:05:40Z) - Capturing dynamical correlations using implicit neural representations [85.66456606776552]
実験データから未知のパラメータを復元するために、モデルハミルトンのシミュレーションデータを模倣するために訓練されたニューラルネットワークと自動微分を組み合わせた人工知能フレームワークを開発する。
そこで本研究では, 実時間から多次元散乱データに適用可能な微分可能なモデルを1回だけ構築し, 訓練する能力について述べる。
論文 参考訳(メタデータ) (2023-04-08T07:55:36Z) - Neural Frailty Machine: Beyond proportional hazard assumption in neural
survival regressions [30.018173329118184]
生存回帰のための強力なフレキシブルなニューラル・モデリング・フレームワークであるニューラル・フラリティ・マシン(NFM)を提案する。
2つの具体的なモデルは、ニューラル比例ハザードモデルと非ハザード回帰モデルを拡張する枠組みに基づいて導出される。
我々は,異なるスケールのベンチマークデータセットを6ドル以上で評価し,提案したNAMモデルは予測性能において最先端サバイバルモデルより優れていることを示す。
論文 参考訳(メタデータ) (2023-03-18T08:15:15Z) - EINNs: Epidemiologically-Informed Neural Networks [75.34199997857341]
本稿では,疫病予測のための新しい物理インフォームドニューラルネットワークEINNを紹介する。
メカニスティックモデルによって提供される理論的柔軟性と、AIモデルによって提供されるデータ駆動表現性の両方を活用する方法について検討する。
論文 参考訳(メタデータ) (2022-02-21T18:59:03Z) - Data-driven emergence of convolutional structure in neural networks [83.4920717252233]
識別タスクを解くニューラルネットワークが、入力から直接畳み込み構造を学習できることを示す。
データモデルを慎重に設計することにより、このパターンの出現は、入力の非ガウス的、高次局所構造によって引き起こされることを示す。
論文 参考訳(メタデータ) (2022-02-01T17:11:13Z) - Prediction of liquid fuel properties using machine learning models with
Gaussian processes and probabilistic conditional generative learning [56.67751936864119]
本研究の目的は、代替燃料の物理的特性を予測するためのクロージャ方程式として機能する、安価で計算可能な機械学習モデルを構築することである。
これらのモデルは、MDシミュレーションのデータベースや、データ融合-忠実性アプローチによる実験的な測定を用いて訓練することができる。
その結果,MLモデルでは,広範囲の圧力および温度条件の燃料特性を正確に予測できることがわかった。
論文 参考訳(メタデータ) (2021-10-18T14:43:50Z) - On Energy-Based Models with Overparametrized Shallow Neural Networks [44.74000986284978]
エネルギーベースモデル(EBM)は、ジェネレーションモデリングの強力なフレームワークです。
この研究では、浅いニューラルネットワークに焦点を当てます。
我々は、いわゆる「アクティブ」体制で訓練されたモデルが、関連する「怠慢」またはカーネル体制に対して統計的に有利であることを示す。
論文 参考訳(メタデータ) (2021-04-15T15:34:58Z) - The Neural Coding Framework for Learning Generative Models [91.0357317238509]
本稿では,脳の予測処理理論に触発された新しい神経生成モデルを提案する。
同様に、私たちの生成モデルにおける人工ニューロンは、隣接するニューロンが何をするかを予測し、予測が現実にどの程度一致するかに基づいてパラメータを調整します。
論文 参考訳(メタデータ) (2020-12-07T01:20:38Z) - Parsimonious neural networks learn interpretable physical laws [77.34726150561087]
本稿では、ニューラルネットワークと進化的最適化を組み合わせたパシモニクスニューラルネットワーク(PNN)を提案し、精度とパシモニクスのバランスをとるモデルを求める。
アプローチのパワーと汎用性は、古典力学のモデルを開発し、基本特性から材料の融解温度を予測することによって実証される。
論文 参考訳(メタデータ) (2020-05-08T16:15:47Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。