論文の概要: Learning Kinetic Monte Carlo stochastic dynamics with Deep Generative Adversarial Networks
- arxiv url: http://arxiv.org/abs/2507.21763v1
- Date: Tue, 29 Jul 2025 12:48:03 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-07-30 17:08:56.268088
- Title: Learning Kinetic Monte Carlo stochastic dynamics with Deep Generative Adversarial Networks
- Title(参考訳): 深部生成逆数ネットワークを用いたモンテカルロ確率力学の学習
- Authors: Daniele Lanzoni, Olivier Pierre-Louis, Roberto Bergamaschini, Francesco Montalenti,
- Abstract要約: 本稿では,GAN(Generative Adversarial Networks)が動的学習に有効であることを示す。
本稿では,2次元多粒子系への応用について紹介し,表面積のゆらぎと関連する時間依存性の粗さに着目した。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We show that Generative Adversarial Networks (GANs) may be fruitfully exploited to learn stochastic dynamics, surrogating traditional models while capturing thermal fluctuations. Specifically, we showcase the application to a two-dimensional, many-particle system, focusing on surface-step fluctuations and on the related time-dependent roughness. After the construction of a dataset based on Kinetic Monte Carlo simulations, a conditional GAN is trained to propagate stochastically the state of the system in time, allowing the generation of new sequences with a reduced computational cost. Modifications with respect to standard GANs, which facilitate convergence and increase accuracy, are discussed. The trained network is demonstrated to quantitatively reproduce equilibrium and kinetic properties, including scaling laws, with deviations of a few percent from the exact value. Extrapolation limits and future perspectives are critically discussed.
- Abstract(参考訳): 本稿では,GAN(Generative Adversarial Networks)が確率力学の学習に役立てられ,熱ゆらぎを捉えながら従来のモデルに代理することを示す。
具体的には,2次元多粒子系への応用を,表面積のゆらぎと関連する時間依存性の粗さに着目して紹介する。
Kinetic Monte Carlo シミュレーションに基づくデータセットの構築の後、条件付き GAN がシステムの状態を確率的に伝播するように訓練され、計算コストを削減した新しいシーケンスが生成される。
収束と精度の向上を促進する標準GANに関する修正について論じる。
トレーニングされたネットワークは、スケーリング法則を含む平衡と運動特性を、正確な値から数パーセントの偏差で定量的に再現する。
外挿限界と今後の展望は批判的に議論されている。
関連論文リスト
- KITINet: Kinetics Theory Inspired Network Architectures with PDE Simulation Approaches [43.872190335490515]
本稿では,非平衡粒子動力学のレンズによる特徴伝播を再解釈する新しいアーキテクチャKITINetを紹介する。
そこで本研究では,粒子系の進化をモデルとした残留モジュールを提案する。
この定式化は粒子衝突とエネルギー交換を模倣し、物理インフォームド相互作用による適応的特徴改善を可能にする。
論文 参考訳(メタデータ) (2025-05-23T13:58:29Z) - Recurrent convolutional neural networks for non-adiabatic dynamics of quantum-classical systems [1.2972104025246092]
本稿では,ハイブリッド量子古典系の非線形非断熱力学をモデル化するための畳み込みニューラルネットワークに基づくRNNモデルを提案する。
検証研究により、訓練されたPARCモデルは、一次元半古典的なホルシュタインモデルの時空進化を再現できることが示されている。
論文 参考訳(メタデータ) (2024-12-09T16:23:25Z) - Latent Space Energy-based Neural ODEs [73.01344439786524]
本稿では,連続時間列を表現するために設計された新しい深部力学モデルを提案する。
マルコフ連鎖モンテカルロの最大推定値を用いてモデルを訓練する。
振動系, ビデオ, 実世界の状態系列(MuJoCo)の実験結果から, 学習可能なエネルギーベース先行モデルの方が既存のモデルより優れていることが示された。
論文 参考訳(メタデータ) (2024-09-05T18:14:22Z) - Machine learning in and out of equilibrium [58.88325379746631]
我々の研究は、統計物理学から適応したフォッカー・プランク法を用いて、これらの平行線を探索する。
我々は特に、従来のSGDでは平衡が切れている長期的限界におけるシステムの定常状態に焦点を当てる。
本稿では,ミニバッチの置き換えを伴わない新しいランゲヴィンダイナミクス(SGLD)を提案する。
論文 参考訳(メタデータ) (2023-06-06T09:12:49Z) - Gibbs-Duhem-Informed Neural Networks for Binary Activity Coefficient
Prediction [45.84205238554709]
本稿では,Gibs-Duhem-informed Neural Network を用いて,様々な組成における二成分活性係数の予測を行う。
ニューラルネットワークの学習における損失関数にギブス・デュヘム方程式を明示的に含んでいる。
論文 参考訳(メタデータ) (2023-05-31T07:36:45Z) - Neural net modeling of equilibria in NSTX-U [0.0]
我々は平衡モデルと形状制御モデルに関連する2つのニューラルネットワークを開発する。
ネットワークにはEFIT01再構成アルゴリズムでトレーニングされた自由境界均衡解法であるEqnetと、Gspert符号でトレーニングされたPertnetが含まれる。
本報告では,これらのモデルが閉ループシミュレーションで確実に使用できることを示す。
論文 参考訳(メタデータ) (2022-02-28T16:09:58Z) - Role of stochastic noise and generalization error in the time
propagation of neural-network quantum states [0.0]
ニューラルネットワーク量子状態(NQS)は、平衡外力学をシミュレートするのに適切な変分アンサッツであることが示されている。
安定かつ正確な時間伝搬は、十分に規則化された変動力学のレギュレーションで達成できることを示す。
論文 参考訳(メタデータ) (2021-05-03T17:55:09Z) - Quantum Generative Adversarial Networks in a Continuous-Variable
Architecture to Simulate High Energy Physics Detectors [0.0]
連続可変量子計算に用いる新しい量子GAN(qGAN)のプロトタイプを導入し,解析する。
量子と古典的判別器を備えた2つのCV qGANモデルを用いて、小型でカロリーの出力を再現する実験を行った。
論文 参考訳(メタデータ) (2021-01-26T23:33:14Z) - Liquid Time-constant Networks [117.57116214802504]
本稿では,時間連続リカレントニューラルネットワークモデルについて紹介する。
暗黙の非線形性によって学習システムの力学を宣言する代わりに、線形一階力学系のネットワークを構築する。
これらのニューラルネットワークは安定かつ有界な振る舞いを示し、ニューラル常微分方程式の族の中で優れた表現性をもたらす。
論文 参考訳(メタデータ) (2020-06-08T09:53:35Z) - Kernel and Rich Regimes in Overparametrized Models [69.40899443842443]
過度にパラメータ化された多層ネットワーク上の勾配勾配は、RKHSノルムではないリッチな暗黙バイアスを誘発できることを示す。
また、より複雑な行列分解モデルと多層非線形ネットワークに対して、この遷移を実証的に示す。
論文 参考訳(メタデータ) (2020-02-20T15:43:02Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。