論文の概要: Scaling Kinetic Monte-Carlo Simulations of Grain Growth with Combined Convolutional and Graph Neural Networks
- arxiv url: http://arxiv.org/abs/2511.17848v1
- Date: Sat, 22 Nov 2025 00:18:03 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-25 18:34:24.472727
- Title: Scaling Kinetic Monte-Carlo Simulations of Grain Growth with Combined Convolutional and Graph Neural Networks
- Title(参考訳): 畳み込みニューラルネットワークとグラフニューラルネットワークを組み合わせた結晶成長のスケーリング・モンテカルロシミュレーション
- Authors: Zhihui Tian, Ethan Suwandi, Tomas Oppelstrup, Vasily V. Bulatov, Joel B. Harley, Fei Zhou,
- Abstract要約: グラフニューラルネットワーク(GNN)は、穀物成長などのシミュレーションをシミュレートするための有望な機械学習手法として登場した。
本稿では、畳み込みニューラルネットワーク(CNN)をベースとしたオートエンコーダと、潜伏空間の微細構造を進化させるGNNを組み合わせたハイブリッドアーキテクチャを提案する。
その結果、新しい設計は、メッセージパッシング層を減らして計算コストを大幅に削減することを示した。
- 参考スコア(独自算出の注目度): 3.4003175225909015
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Graph neural networks (GNN) have emerged as a promising machine learning method for microstructure simulations such as grain growth. However, accurate modeling of realistic grain boundary networks requires large simulation cells, which GNN has difficulty scaling up to. To alleviate the computational costs and memory footprint of GNN, we propose a hybrid architecture combining a convolutional neural network (CNN) based bijective autoencoder to compress the spatial dimensions, and a GNN that evolves the microstructure in the latent space of reduced spatial sizes. Our results demonstrate that the new design significantly reduces computational costs with using fewer message passing layer (from 12 down to 3) compared with GNN alone. The reduction in computational cost becomes more pronounced as the spatial size increases, indicating strong computational scalability. For the largest mesh evaluated (160^3), our method reduces memory usage and runtime in inference by 117x and 115x, respectively, compared with GNN-only baseline. More importantly, it shows higher accuracy and stronger spatiotemporal capability than the GNN-only baseline, especially in long-term testing. Such combination of scalability and accuracy is essential for simulating realistic material microstructures over extended time scales. The improvements can be attributed to the bijective autoencoder's ability to compress information losslessly from spatial domain into a high dimensional feature space, thereby producing more expressive latent features for the GNN to learn from, while also contributing its own spatiotemporal modeling capability. The training was optimized to learn from the stochastic Potts Monte Carlo method. Our findings provide a highly scalable approach for simulating grain growth.
- Abstract(参考訳): グラフニューラルネットワーク(GNN)は、穀物成長などのミクロ組織シミュレーションのための有望な機械学習手法として登場した。
しかし、現実的な粒界ネットワークの正確なモデリングには大きなシミュレーションセルが必要であるため、GNNはスケールアップが困難である。
GNNの計算コストとメモリフットプリントを軽減するため、空間次元を圧縮する畳み込みニューラルネットワーク(CNN)ベースの単目的オートエンコーダと、空間サイズを小さくした潜時空間の微細構造を進化させるGNNを組み合わせたハイブリッドアーキテクチャを提案する。
以上の結果から,GNN単独と比較して,メッセージパッシング層を12から3に減らして計算コストを大幅に削減できることが示唆された。
空間サイズが大きくなるにつれて、計算コストの削減がより顕著になり、強力な計算スケーラビリティが示される。
評価した最大メッシュ(160^3)では,GNNのみのベースラインと比較して,メモリ使用率とランタイムの推論を117倍,115倍削減する。
さらに重要なことは、特に長期試験において、GNNのみのベースラインよりも精度が高く、時空間能力が強いことである。
このようなスケーラビリティと精度の組み合わせは、拡張時間スケールで現実的な材料ミクロ構造をシミュレートするために不可欠である。
この改善は、空間領域から高次元の特徴空間に無作為に情報を圧縮し、GNNが学習するより表現力のある潜在特徴を生成するとともに、独自の時空間モデリング能力を提供するという、客観的なオートエンコーダの能力に起因している。
トレーニングは確率的ポッツモンテカルロ法から学ぶために最適化された。
我々の発見は、穀物成長をシミュレートするための非常にスケーラブルなアプローチを提供する。
関連論文リスト
- Scalable Mechanistic Neural Networks for Differential Equations and Machine Learning [52.28945097811129]
長い時間的シーケンスを含む科学機械学習応用のための拡張ニューラルネットワークフレームワークを提案する。
計算時間と空間複雑度はそれぞれ、列長に関して立方体と二次体から線形へと減少する。
大規模な実験により、S-MNNは元のMNNと精度で一致し、計算資源を大幅に削減した。
論文 参考訳(メタデータ) (2024-10-08T14:27:28Z) - Spatiotemporal Graph Learning with Direct Volumetric Information Passing and Feature Enhancement [62.91536661584656]
本稿では,CeFeGNN(CeFeGNN)とCell-embeddedとFeature-enhanced Graph Neural Networkを学習用として提案する。
学習可能なセル属性を共通ノードエッジメッセージパッシングプロセスに埋め込むことで,地域特性の空間依存性をよりよく把握する。
各種PDEシステムと1つの実世界のデータセットを用いた実験により、CeFeGNNは他のベースラインと比較して優れた性能を発揮することが示された。
論文 参考訳(メタデータ) (2024-09-26T16:22:08Z) - Pre-Training Identification of Graph Winning Tickets in Adaptive Spatial-Temporal Graph Neural Networks [5.514795777097036]
Lottery Ticket hypothesis (LTH) から派生した Graph Winning Ticket (GWT) の概念を導入する。
事前決定された恒星トポロジーをGWTとしてトレーニング前に採用することにより、エッジの削減と効率的な情報伝達のバランスをとることができる。
提案手法は,48GBのメモリを備えた単一A6000を用いて,最大規模の時空間データセット上でASTGNNのトレーニングを可能にする。
論文 参考訳(メタデータ) (2024-06-12T14:53:23Z) - Towards Quantum Graph Neural Networks: An Ego-Graph Learning Approach [47.19265172105025]
グラフ構造化データのための新しいハイブリッド量子古典アルゴリズムを提案し、これをEgo-graph based Quantum Graph Neural Network (egoQGNN)と呼ぶ。
egoQGNNはテンソル積とユニティ行列表現を用いてGNN理論フレームワークを実装し、必要なモデルパラメータの数を大幅に削減する。
このアーキテクチャは、現実世界のデータからヒルベルト空間への新しいマッピングに基づいている。
論文 参考訳(メタデータ) (2022-01-13T16:35:45Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。