論文の概要: Improving Molecular Graph Neural Network Explainability with
Orthonormalization and Induced Sparsity
- arxiv url: http://arxiv.org/abs/2105.04854v1
- Date: Tue, 11 May 2021 08:13:34 GMT
- ステータス: 処理完了
- システム内更新日: 2021-05-12 14:06:00.202129
- Title: Improving Molecular Graph Neural Network Explainability with
Orthonormalization and Induced Sparsity
- Title(参考訳): オルソノーマ化による分子グラフニューラルネットワークの説明可能性の向上とスパシティ
- Authors: Ryan Henderson, Djork-Arn\'e Clevert, Floriane Montanari
- Abstract要約: GCNNのトレーニング中に適用する2つの簡単な正規化手法を提案します。
BROはグラフ畳み込み演算を奨励し、正規直交ノード埋め込みを生成する。
ギニ正規化は出力層の重みに適用され、モデルが予測するために使える次元の数を制約する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Rationalizing which parts of a molecule drive the predictions of a molecular
graph convolutional neural network (GCNN) can be difficult. To help, we propose
two simple regularization techniques to apply during the training of GCNNs:
Batch Representation Orthonormalization (BRO) and Gini regularization. BRO,
inspired by molecular orbital theory, encourages graph convolution operations
to generate orthonormal node embeddings. Gini regularization is applied to the
weights of the output layer and constrains the number of dimensions the model
can use to make predictions. We show that Gini and BRO regularization can
improve the accuracy of state-of-the-art GCNN attribution methods on artificial
benchmark datasets. In a real-world setting, we demonstrate that medicinal
chemists significantly prefer explanations extracted from regularized models.
While we only study these regularizers in the context of GCNNs, both can be
applied to other types of neural networks
- Abstract(参考訳): 分子のどの部分が分子グラフ畳み込みニューラルネットワーク(GCNN)の予測を駆動するかの合理化は困難である。
本稿では,GCNNのトレーニングにおいて,BRO(Batch Representation Orthonormalization)とGini regularization(Gini regularization)という2つの単純な正規化手法を提案する。
分子軌道理論にインスパイアされたBROは、グラフ畳み込み演算を奨励し、正規直交ノード埋め込みを生成する。
ギニ正規化は出力層の重みに適用され、モデルが予測するために使える次元の数を制約する。
本稿では,Gini と BRO の正規化により,最新のGCNN 属性法の精度が向上することを示す。
現実の環境では、薬理学者は正規化モデルから抽出した説明をかなり好んでいる。
我々はこれらの正規化器をGCNNの文脈でのみ研究するが、どちらも他のタイプのニューラルネットワークに適用できる。
関連論文リスト
- A Manifold Perspective on the Statistical Generalization of Graph Neural Networks [84.01980526069075]
我々は、スペクトル領域の多様体からサンプリングされたグラフ上のGNNの統計的一般化理論を確立するために多様体の視点を取る。
我々はGNNの一般化境界が対数スケールのグラフのサイズとともに線形に減少し、フィルタ関数のスペクトル連続定数とともに線形的に増加することを証明した。
論文 参考訳(メタデータ) (2024-06-07T19:25:02Z) - ChiENN: Embracing Molecular Chirality with Graph Neural Networks [10.19088492223333]
本稿では,GNNをノード近傍の順序に敏感にする,理論的に正当化されたメッセージパス方式を提案する。
分子キラリティの文脈でこの概念を適用し、任意のGNNモデルに付加可能なキラルエッジニューラルネットワーク層を構築する。
GNNにChiENN層を追加することで、キラル感受性分子特性予測タスクにおける最先端の手法よりも優れた性能を示すことを示す。
論文 参考訳(メタデータ) (2023-07-05T10:50:40Z) - OrthoReg: Improving Graph-regularized MLPs via Orthogonality
Regularization [66.30021126251725]
グラフニューラルネットワーク(GNN)は現在、グラフ構造データのモデリングにおいて支配的である。
グラフ正規化ネットワーク(GR-MLP)はグラフ構造情報をモデル重みに暗黙的に注入するが、その性能はほとんどのタスクにおいてGNNとほとんど一致しない。
GR-MLPは,最大数個の固有値が埋め込み空間を支配する現象である次元崩壊に苦しむことを示す。
次元崩壊問題を緩和する新しいGR-MLPモデルであるOrthoRegを提案する。
論文 参考訳(メタデータ) (2023-01-31T21:20:48Z) - Graph neural networks for the prediction of molecular structure-property
relationships [59.11160990637615]
グラフニューラルネットワーク(GNN)は、分子グラフ上で直接動作する新しい機械学習手法である。
GNNは、エンドツーエンドでプロパティを学習できるため、情報記述子の必要性を回避することができる。
本稿では、分子特性予測のための2つの例を通して、GNNの基礎を説明し、GNNの応用を実証する。
論文 参考訳(メタデータ) (2022-07-25T11:30:44Z) - Image-Like Graph Representations for Improved Molecular Property
Prediction [7.119677737397071]
本稿では,CubeMol と呼ばれる GNN の必要性を完全に回避する,新しい固有分子表現法を提案する。
我々の定次元表現は、トランスモデルと組み合わせると、最先端のGNNモデルの性能を超え、拡張性を提供する。
論文 参考訳(メタデータ) (2021-11-20T22:39:11Z) - Molecular Graph Generation via Geometric Scattering [7.796917261490019]
グラフニューラルネットワーク(GNN)は、薬物の設計と発見の問題を解決するために広く使われている。
分子グラフ生成における表現第一のアプローチを提案する。
我々のアーキテクチャは、医薬品のデータセットの有意義な表現を学習し、目標指向の薬物合成のためのプラットフォームを提供する。
論文 参考訳(メタデータ) (2021-10-12T18:00:23Z) - GemNet: Universal Directional Graph Neural Networks for Molecules [7.484063729015126]
有向エッジ埋め込みと2ホップメッセージパッシングを備えたGNNは、予測の普遍的近似器であることを示す。
次にこれらの洞察と複数の構造的改善を活用して、幾何学的メッセージパッシングニューラルネットワーク(GemNet)を提案する。
論文 参考訳(メタデータ) (2021-06-02T15:44:55Z) - Nonlinear State-Space Generalizations of Graph Convolutional Neural
Networks [172.18295279061607]
グラフ畳み込みニューラルネットワーク(GCNN)は、線形グラフ畳み込みを非線形にネストすることで、ネットワークデータから構成表現を学習する。
本稿では,GCNNを状態空間の観点からアプローチし,グラフ畳み込みモジュールが最小値線形状態空間モデルであることを明らかにする。
この状態更新は、非パラメトリックであり、グラフスペクトルによって爆発または消滅する可能性があるため、問題となる可能性がある。
本稿では,非線形な状態空間パラメトリック方式でノード特徴を階層内に集約し,よりよいトレードオフを実現するという,新しい結節集合規則を提案する。
論文 参考訳(メタデータ) (2020-10-27T19:48:56Z) - Permutation-equivariant and Proximity-aware Graph Neural Networks with
Stochastic Message Passing [88.30867628592112]
グラフニューラルネットワーク(GNN)は、グラフ上の新たな機械学習モデルである。
置換等価性と近接認識性は、GNNにとって非常に望ましい2つの重要な特性である。
既存のGNNは、主にメッセージパッシング機構に基づいており、同時に2つの特性を保存できないことを示す。
ノードの近さを保つため,既存のGNNをノード表現で拡張する。
論文 参考訳(メタデータ) (2020-09-05T16:46:56Z) - Infinitely Wide Graph Convolutional Networks: Semi-supervised Learning
via Gaussian Processes [144.6048446370369]
グラフ畳み込みニューラルネットワーク(GCN)は近年,グラフに基づく半教師付き半教師付き分類において有望な結果を示した。
グラフに基づく半教師付き学習のためのGCN(GPGC)を用いたGP回帰モデルを提案する。
GPGCを評価するための広範囲な実験を行い、他の最先端手法よりも優れていることを示す。
論文 参考訳(メタデータ) (2020-02-26T10:02:32Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。