論文の概要: Graph Neural Networks embedded into Margules model for vapor-liquid equilibria prediction
- arxiv url: http://arxiv.org/abs/2502.18998v1
- Date: Wed, 26 Feb 2025 10:03:47 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-02-27 14:56:17.287519
- Title: Graph Neural Networks embedded into Margules model for vapor-liquid equilibria prediction
- Title(参考訳): 気液平衡予測のためのマルグルズモデルに埋め込まれたグラフニューラルネットワーク
- Authors: Edgar Ivan Sanchez Medina, Kai Sundmacher,
- Abstract要約: 比較的単純なギブスエネルギーモデルに埋め込まれたグラフニューラルネットワーク(GNN)の性能を解析した。
この結果は、単純なギブスエネルギーモデルと無限希釈データにのみ訓練されたGNNを組み合わせた予測精度の基準となる。
- 参考スコア(独自算出の注目度): 0.8287206589886881
- License:
- Abstract: Predictive thermodynamic models are crucial for the early stages of product and process design. In this paper the performance of Graph Neural Networks (GNNs) embedded into a relatively simple excess Gibbs energy model, the extended Margules model, for predicting vapor-liquid equilibrium is analyzed. By comparing its performance against the established UNIFAC-Dortmund model it has been shown that GNNs embedded in Margules achieves an overall lower accuracy. However, higher accuracy is observed in the case of various types of binary mixtures. Moreover, since group contribution methods, like UNIFAC, are limited due to feasibility of molecular fragmentation or availability of parameters, the GNN in Margules model offers an alternative for VLE estimation. The findings establish a baseline for the predictive accuracy that simple excess Gibbs energy models combined with GNNs trained solely on infinite dilution data can achieve.
- Abstract(参考訳): 予測熱力学モデルは、製品設計とプロセス設計の初期段階において不可欠である。
本稿では, 比較的単純なギブスエネルギーモデルに埋め込まれたグラフニューラルネットワーク(GNN)の性能について述べる。
既存のUNIFAC-Dortmundモデルと比較した結果,Margulesに埋め込まれたGNNの精度は全体的に低いことがわかった。
しかし、様々な種類の二成分混合の場合、高い精度が観察される。
さらに、UNIFACのようなグループ寄与法は分子の断片化やパラメータの可利用性によって制限されているため、GNN in Margules モデルはVLE推定の代替となる。
この結果は、単純なギブスエネルギーモデルと無限希釈データにのみ訓練されたGNNを組み合わせた予測精度の基準となる。
関連論文リスト
- Adaptive Fuzzy C-Means with Graph Embedding [84.47075244116782]
ファジィクラスタリングアルゴリズムは、大まかに2つの主要なグループに分類できる: ファジィC平均法(FCM)と混合モデルに基づく方法。
本稿では,FCMを用いたクラスタリングモデルを提案する。
論文 参考訳(メタデータ) (2024-05-22T08:15:50Z) - Learning CO$_2$ plume migration in faulted reservoirs with Graph Neural
Networks [0.3914676152740142]
我々は,CO$$ plumeマイグレーションに対する断層の影響を捉えるグラフベースのニューラルモデルを開発した。
本研究では, 断層を有する合成貯留層において, ガス飽和度と細孔圧力の経時的変化を正確に予測できることを実証した。
この研究は、複雑な断層と破壊を伴う地下流れを正確にかつ迅速にモデル化するためのGNNベースの手法の可能性を強調している。
論文 参考訳(メタデータ) (2023-06-16T06:47:47Z) - Gibbs-Duhem-Informed Neural Networks for Binary Activity Coefficient
Prediction [45.84205238554709]
本稿では,Gibs-Duhem-informed Neural Network を用いて,様々な組成における二成分活性係数の予測を行う。
ニューラルネットワークの学習における損失関数にギブス・デュヘム方程式を明示的に含んでいる。
論文 参考訳(メタデータ) (2023-05-31T07:36:45Z) - Denoise Pretraining on Nonequilibrium Molecules for Accurate and
Transferable Neural Potentials [8.048439531116367]
より正確で伝達可能なGNNポテンシャル予測を実現するために,非平衡分子配座の事前学習を提案する。
小分子で事前学習したモデルでは、顕著な伝達性を示し、多様な分子系で微調整された場合の性能が向上した。
論文 参考訳(メタデータ) (2023-03-03T21:15:22Z) - Gibbs-Helmholtz Graph Neural Network: capturing the temperature
dependency of activity coefficients at infinite dilution [1.290382979353427]
我々は,Gibs-Helmholtz Graph Neural Network (GH-GNN) モデルを構築し,温度の異なる分子系の$ln gamma_ijinfty$を予測する。
本稿では,GH-GNNの性能を連続的かつ離散的に解析し,モデルの適用性領域と予測精度を示す。
論文 参考訳(メタデータ) (2022-12-02T14:25:58Z) - On the Generalization and Adaption Performance of Causal Models [99.64022680811281]
異なる因果発見は、データ生成プロセスを一連のモジュールに分解するために提案されている。
このようなモジュラニューラル因果モデルの一般化と適応性能について検討する。
我々の分析では、モジュラーニューラル因果モデルが、低データレギュレーションにおけるゼロおよび少数ショットの適応において、他のモデルよりも優れていることを示している。
論文 参考訳(メタデータ) (2022-06-09T17:12:32Z) - Prediction of liquid fuel properties using machine learning models with
Gaussian processes and probabilistic conditional generative learning [56.67751936864119]
本研究の目的は、代替燃料の物理的特性を予測するためのクロージャ方程式として機能する、安価で計算可能な機械学習モデルを構築することである。
これらのモデルは、MDシミュレーションのデータベースや、データ融合-忠実性アプローチによる実験的な測定を用いて訓練することができる。
その結果,MLモデルでは,広範囲の圧力および温度条件の燃料特性を正確に予測できることがわかった。
論文 参考訳(メタデータ) (2021-10-18T14:43:50Z) - Post-mortem on a deep learning contest: a Simpson's paradox and the
complementary roles of scale metrics versus shape metrics [61.49826776409194]
我々は、ニューラルネットワーク(NN)モデルの一般化精度を予測するために、コンテストで公に利用可能にされたモデルのコーパスを分析する。
メトリクスが全体としてよく機能するが、データのサブパーティションではあまり機能しない。
本稿では,データに依存しない2つの新しい形状指標と,一連のNNのテスト精度の傾向を予測できるデータ依存指標を提案する。
論文 参考訳(メタデータ) (2021-06-01T19:19:49Z) - Scaling Hidden Markov Language Models [118.55908381553056]
この研究は、HMMを言語モデリングデータセットに拡張するという課題を再考する。
本研究では,HMMを大規模状態空間に拡張する手法を提案する。
論文 参考訳(メタデータ) (2020-11-09T18:51:55Z) - A Rigorous Link Between Self-Organizing Maps and Gaussian Mixture Models [78.6363825307044]
本研究は、自己組織化マップ(SOM)とガウス混合モデル(GMM)の関係を数学的に扱うものである。
我々は,エネルギーベースSOMモデルを勾配勾配下降と解釈できることを示した。
このリンクはSOMsを生成確率モデルとして扱うことができ、SOMsを使用して外れ値を検出したりサンプリングしたりするための正式な正当性を与える。
論文 参考訳(メタデータ) (2020-09-24T14:09:04Z) - Learning CHARME models with neural networks [1.5362025549031046]
我々はCHARME(Conditional Heteroscedastic Autoregressive Mixture of Experts)と呼ばれるモデルを考える。
そこで本研究では,NNに基づく自己回帰関数の学習理論を開発した。
論文 参考訳(メタデータ) (2020-02-08T21:51:02Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。