論文の概要: Layer-to-Layer Knowledge Mixing in Graph Neural Network for Chemical Property Prediction
- arxiv url: http://arxiv.org/abs/2510.20236v1
- Date: Thu, 23 Oct 2025 05:42:31 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-25 03:08:17.437366
- Title: Layer-to-Layer Knowledge Mixing in Graph Neural Network for Chemical Property Prediction
- Title(参考訳): 化学特性予測のためのグラフニューラルネットワークにおける層間知識混合
- Authors: Teng Jiek See, Daokun Zhang, Mario Boley, David K. Chalmers,
- Abstract要約: 層間知識混合(Layer-to-Layer Knowledge Mixing, LKM)は、最先端のGNNの精度を高める自己知識蒸留法である。
LKMはマルチホップおよびマルチスケール情報を効率よく集約し、局所的およびグローバルな分子的特徴の表現を改善する。
- 参考スコア(独自算出の注目度): 2.919475219863926
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Graph Neural Networks (GNNs) are the currently most effective methods for predicting molecular properties but there remains a need for more accurate models. GNN accuracy can be improved by increasing the model complexity but this also increases the computational cost and memory requirement during training and inference. In this study, we develop Layer-to-Layer Knowledge Mixing (LKM), a novel self-knowledge distillation method that increases the accuracy of state-of-the-art GNNs while adding negligible computational complexity during training and inference. By minimizing the mean absolute distance between pre-existing hidden embeddings of GNN layers, LKM efficiently aggregates multi-hop and multi-scale information, enabling improved representation of both local and global molecular features. We evaluated LKM using three diverse GNN architectures (DimeNet++, MXMNet, and PAMNet) using datasets of quantum chemical properties (QM9, MD17 and Chignolin). We found that the LKM method effectively reduces the mean absolute error of quantum chemical and biophysical property predictions by up to 9.8% (QM9), 45.3% (MD17 Energy), and 22.9% (Chignolin). This work demonstrates the potential of LKM to significantly improve the accuracy of GNNs for chemical property prediction without any substantial increase in training and inference cost.
- Abstract(参考訳): グラフニューラルネットワーク(GNN)は現在、分子特性を予測する最も効果的な方法であるが、より正確なモデルが必要である。
GNNの精度は、モデルの複雑さを増大させることで向上できるが、トレーニングや推論の際の計算コストとメモリ要件も向上する。
本研究では,新しい自己知識蒸留法であるLayer-to-Layer Knowledge Mixing (LKM)を開発した。
既存のGNN層に埋没した埋没層の平均絶対距離を最小化することにより、LKMはマルチホップおよびマルチスケール情報を効率的に集約し、局所的および大域的な分子特性の表現を改善することができる。
我々は,3種類のGNNアーキテクチャ (DimeNet++, MXMNet, PAMNet) を用いて,量子化学特性のデータセット (QM9, MD17, Chignolin) を用いてLKMを評価した。
LKM法は, 量子化学および生物物理特性予測の平均絶対誤差を, 9.8% (QM9), 45.3% (MD17 Energy), 22.9% (Chignolin) まで効果的に低減することがわかった。
本研究は, 化学特性予測におけるGNNの精度を大幅に向上させるLKMの可能性を示すものである。
関連論文リスト
- Towards Improved Quantum Machine Learning for Molecular Force Fields [0.0]
分子力場を生成するための同変量子ニューラルネットワーク(QNN)。
本稿では,従来の研究に基づくQNNアーキテクチャについて考察し,原子環境のパラメトリゼーションにおける欠点を指摘する。
これらの欠点に対処する改良QNNアーキテクチャを提案する。
論文 参考訳(メタデータ) (2025-05-06T06:02:12Z) - Teaching MLPs to Master Heterogeneous Graph-Structured Knowledge for Efficient and Accurate Inference [53.38082028252104]
我々はHGNNの優れた性能とリレーショナルの効率的な推論を組み合わせたHG2MとHG2M+を紹介する。
HG2Mは直接、教師HGNNの入力とソフトラベルをターゲットとしてノード特徴を持つ生徒を訓練する。
HG2Mは、大規模IGB-3M-19データセット上でのHGNNよりも379.24$timesの速度アップを示す。
論文 参考訳(メタデータ) (2024-11-21T11:39:09Z) - Scalable Mechanistic Neural Networks for Differential Equations and Machine Learning [52.28945097811129]
長い時間的シーケンスを含む科学機械学習応用のための拡張ニューラルネットワークフレームワークを提案する。
計算時間と空間複雑度はそれぞれ、列長に関して立方体と二次体から線形へと減少する。
大規模な実験により、S-MNNは元のMNNと精度で一致し、計算資源を大幅に削減した。
論文 参考訳(メタデータ) (2024-10-08T14:27:28Z) - Dumpling GNN: Hybrid GNN Enables Better ADC Payload Activity Prediction Based on Chemical Structure [53.76752789814785]
DumplingGNNは、化学構造に基づいてADCペイロードのアクティビティを予測するために特別に設計された、ハイブリッドなグラフニューラルネットワークアーキテクチャである。
DNAトポイソメラーゼIインヒビターに着目した包括的ADCペイロードデータセットで評価を行った。
特別なADCペイロードデータセットに対して、例外的な精度(91.48%)、感度95.08%)、特異性(97.54%)を示す。
論文 参考訳(メタデータ) (2024-09-23T17:11:04Z) - Cross-Modal Learning for Chemistry Property Prediction: Large Language Models Meet Graph Machine Learning [0.0]
グラフニューラルネットワーク(GNN)の分析能力と大規模言語モデル(LLM)の言語生成・予測能力を利用する多モード融合(MMF)フレームワークを提案する。
本フレームワークは,グラフ構造化データのモデリングにおけるGNNの有効性とLLMのゼロショットおよび少数ショット学習能力を組み合わせることにより,オーバーフィッティングのリスクを低減し,予測の改善を実現する。
論文 参考訳(メタデータ) (2024-08-27T11:10:39Z) - Accelerating Molecular Graph Neural Networks via Knowledge Distillation [1.9116784879310031]
グラフニューラルネットワーク(GNN)の最近の進歩は、分子や分子系のより包括的なモデリングを可能にしている。
この分野は、より大規模で複雑なアーキテクチャへと進展しているため、最先端のGNNは、多くの大規模アプリケーションでほとんど禁止されている。
我々は, 方向性および同変GNNにおける隠れ表現の蒸留を容易にするKD戦略を考案し, エネルギー・力予測の回帰タスクにおけるその性能を評価する。
論文 参考訳(メタデータ) (2023-06-26T16:24:31Z) - Multi-Task Mixture Density Graph Neural Networks for Predicting Cu-based
Single-Atom Alloy Catalysts for CO2 Reduction Reaction [61.9212585617803]
グラフニューラルネットワーク(GNN)は、材料科学者からますます注目を集めている。
本研究では,DimeNet++と混合密度ネットワークに基づくマルチタスク(MT)アーキテクチャを構築し,その性能向上を図る。
論文 参考訳(メタデータ) (2022-09-15T13:52:15Z) - Graph Neural Networks for Temperature-Dependent Activity Coefficient
Prediction of Solutes in Ionic Liquids [58.720142291102135]
IL中の溶質の温度依存性無限希釈交流を予測するためのGNNを提案する。
我々は、GNNを4万以上のAC値を含むデータベース上でトレーニングし、最先端のMCMと比較する。
GNNとMCMも同様に高い予測性能を達成し、GNNはトレーニング中に考慮されていないILと溶質を含む溶液のACに対して高品質な予測を可能にする。
論文 参考訳(メタデータ) (2022-06-23T15:27:29Z) - Graph Neural Network Architecture Search for Molecular Property
Prediction [1.0965065178451106]
分子特性予測のためのグラフニューラルネットワーク(GNN)の設計と開発を自動化するNAS手法を開発した。
具体的には、量子力学および物理化学データセットにおける小分子の分子特性を予測するために、メッセージパッシングニューラルネットワーク(MPNN)の自動開発に焦点を当てる。
論文 参考訳(メタデータ) (2020-08-27T15:30:57Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。