論文の概要: Fragment-Wise Interpretability in Graph Neural Networks via Molecule Decomposition and Contribution Analysis
- arxiv url: http://arxiv.org/abs/2508.15015v1
- Date: Wed, 20 Aug 2025 19:15:53 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-08-22 16:26:46.072638
- Title: Fragment-Wise Interpretability in Graph Neural Networks via Molecule Decomposition and Contribution Analysis
- Title(参考訳): 分子分解と寄与分析によるグラフニューラルネットワークのフラグメント・ワイズ解釈可能性
- Authors: Sebastian Musiał, Bartosz Zieliński, Tomasz Danel,
- Abstract要約: SEAL(Substructure Explanation via Attribution Learning)は、モデル予測を意味のある分子サブグラフに属性付ける、新しい解釈可能なグラフニューラルネットワークである。
SEALは入力グラフを化学的に関連する断片に分解し、出力に対する因果的影響を推定する。
- 参考スコア(独自算出の注目度): 0.9217021281095907
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Graph neural networks have demonstrated remarkable success in predicting molecular properties by leveraging the rich structural information encoded in molecular graphs. However, their black-box nature reduces interpretability, which limits trust in their predictions for important applications such as drug discovery and materials design. Furthermore, existing explanation techniques often fail to reliably quantify the contribution of individual atoms or substructures due to the entangled message-passing dynamics. We introduce SEAL (Substructure Explanation via Attribution Learning), a new interpretable graph neural network that attributes model predictions to meaningful molecular subgraphs. SEAL decomposes input graphs into chemically relevant fragments and estimates their causal influence on the output. The strong alignment between fragment contributions and model predictions is achieved by explicitly reducing inter-fragment message passing in our proposed model architecture. Extensive evaluations on synthetic benchmarks and real-world molecular datasets demonstrate that SEAL outperforms other explainability methods in both quantitative attribution metrics and human-aligned interpretability. A user study further confirms that SEAL provides more intuitive and trustworthy explanations to domain experts. By bridging the gap between predictive performance and interpretability, SEAL offers a promising direction for more transparent and actionable molecular modeling.
- Abstract(参考訳): グラフニューラルネットワークは、分子グラフに符号化された豊富な構造情報を活用することで、分子特性の予測に顕著な成功を収めた。
しかしながら、ブラックボックスの性質は解釈可能性を低下させ、薬物発見や材料設計といった重要な応用に対する予測への信頼を制限する。
さらに、既存の説明手法は、絡み合ったメッセージパッシングのダイナミクスのため、個々の原子やサブ構造の寄与を確実に定量化できないことが多い。
モデル予測を意味のある分子サブグラフに属性付ける新しい解釈可能なグラフニューラルネットワークであるSEAL(Substructure Explanation via Attribution Learning)を紹介する。
SEALは入力グラフを化学的に関連する断片に分解し、出力に対する因果的影響を推定する。
フラグメントコントリビューションとモデル予測との強い整合性は,提案したモデルアーキテクチャにおけるフラグメント間メッセージパッシングを明示的に低減することで達成される。
合成ベンチマークと実世界の分子データセットの広範囲な評価は、SEALが定量的属性メトリクスと人間の整合性の両方において、他の説明可能性手法よりも優れていることを示している。
ユーザ調査では、SEALがドメインの専門家に対してより直感的で信頼できる説明を提供することも確認されている。
予測性能と解釈可能性のギャップを埋めることにより、SEALはより透明で実用的な分子モデリングのための有望な方向を提供する。
関連論文リスト
- Adaptive Substructure-Aware Expert Model for Molecular Property Prediction [5.087741013479207]
グラフニューラルネットワーク(GNN)は分子を分子グラフとしてモデル化することで有望な結果を示す。
既存の方法は、しばしば異なるサブストラクチャーの分子特性への様々な貢献を見落としている。
分子特性予測にMixture-of-Experts(MoE)アプローチを利用する新しいGNNベースのフレームワークであるPhil-Molを提案する。
論文 参考訳(メタデータ) (2025-04-08T09:25:03Z) - I Predict Therefore I Am: Is Next Token Prediction Enough to Learn Human-Interpretable Concepts from Data? [76.15163242945813]
大規模言語モデル (LLM) は、多くの人が知能の形式を示すと結論づけている。
本稿では,潜在離散変数として表現される人間解釈可能な概念に基づいてトークンを生成する新しい生成モデルを提案する。
論文 参考訳(メタデータ) (2025-03-12T01:21:17Z) - Contrastive Dual-Interaction Graph Neural Network for Molecular Property Prediction [0.0]
本稿では,分子特性予測のための自己教師付きグラフニューラルネットワークフレームワークであるDIG-Molを紹介する。
DIG-Molは2つの相互接続ネットワークと運動量蒸留ネットワークを統合し、分子特性を効率的に改善する。
我々は,様々な分子特性予測タスクにおける広範囲な実験的評価により,DIG-Molの最先端性能を確立した。
論文 参考訳(メタデータ) (2024-05-04T10:09:27Z) - Bi-level Contrastive Learning for Knowledge-Enhanced Molecule Representations [68.32093648671496]
分子に固有の二重レベル構造を考慮に入れたGODEを導入する。
分子は固有のグラフ構造を持ち、より広い分子知識グラフ内のノードとして機能する。
異なるグラフ構造上の2つのGNNを事前学習することにより、GODEは対応する知識グラフサブ構造と分子構造を効果的に融合させる。
論文 参考訳(メタデータ) (2023-06-02T15:49:45Z) - Atomic and Subgraph-aware Bilateral Aggregation for Molecular
Representation Learning [57.670845619155195]
我々は、原子とサブグラフを意識したバイラテラルアグリゲーション(ASBA)と呼ばれる分子表現学習の新しいモデルを導入する。
ASBAは、両方の種類の情報を統合することで、以前の原子単位とサブグラフ単位のモデルの限界に対処する。
本手法は,分子特性予測のための表現をより包括的に学習する方法を提供する。
論文 参考訳(メタデータ) (2023-05-22T00:56:00Z) - Enhancing Model Learning and Interpretation Using Multiple Molecular
Graph Representations for Compound Property and Activity Prediction [0.0]
本研究では,高次情報を含む複数の分子グラフ表現を導入する。
モデル学習と多様な視点からの解釈に対するそれらの効果について研究する。
その結果, 原子グラフ表現と分子グラフ表現の低減を組み合わせれば, 有望なモデル性能が得られることがわかった。
論文 参考訳(メタデータ) (2023-04-13T04:20:30Z) - Graph neural networks for the prediction of molecular structure-property
relationships [59.11160990637615]
グラフニューラルネットワーク(GNN)は、分子グラフ上で直接動作する新しい機械学習手法である。
GNNは、エンドツーエンドでプロパティを学習できるため、情報記述子の必要性を回避することができる。
本稿では、分子特性予測のための2つの例を通して、GNNの基礎を説明し、GNNの応用を実証する。
論文 参考訳(メタデータ) (2022-07-25T11:30:44Z) - MEG: Generating Molecular Counterfactual Explanations for Deep Graph
Networks [11.291571222801027]
本稿では, 分子特性予測 t の文脈における深層グラフネットワークの説明可能性に取り組むための新しいアプローチを提案する。
我々は, 構造的類似度が高く, 予測特性の異なる(有意)化合物の形で, 特定の予測に対する情報的反実的説明を生成する。
モデルが非ML専門家に分子の近傍に焦点を絞った学習モデルに関する重要な洞察を伝達する方法を示す結果について議論する。
論文 参考訳(メタデータ) (2021-04-16T12:17:19Z) - Multi-View Graph Neural Networks for Molecular Property Prediction [67.54644592806876]
マルチビューグラフニューラルネットワーク(MV-GNN)を提案する。
MV-GNNでは,学習過程を安定させるために,自己注意型読み出しコンポーネントと不一致損失を導入する。
我々は、相互依存型メッセージパッシング方式を提案することにより、MV-GNNの表現力をさらに強化する。
論文 参考訳(メタデータ) (2020-05-17T04:46:07Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。