論文の概要: Domain-informed graph neural networks: a quantum chemistry case study
- arxiv url: http://arxiv.org/abs/2208.11934v1
- Date: Thu, 25 Aug 2022 08:36:50 GMT
- ステータス: 処理完了
- システム内更新日: 2022-08-26 14:00:20.348676
- Title: Domain-informed graph neural networks: a quantum chemistry case study
- Title(参考訳): ドメインインフォームグラフニューラルネットワーク:量子化学のケーススタディ
- Authors: Jay Morgan, Adeline Paiement, and Christian Klinke
- Abstract要約: グラフニューラルネットワーク(GNN)に着目し、グラフとして表される化学系(分子と結晶)のポテンシャルエネルギーを推定する。
ドメイン知識の2つの要素をGNNの設計に統合し、学習を制約し、規則化し、より高精度で一般化する。
- 参考スコア(独自算出の注目度): 0.34410212782758054
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We explore different strategies to integrate prior domain knowledge into the
design of a deep neural network (DNN). We focus on graph neural networks (GNN),
with a use case of estimating the potential energy of chemical systems
(molecules and crystals) represented as graphs. We integrate two elements of
domain knowledge into the design of the GNN to constrain and regularise its
learning, towards higher accuracy and generalisation. First, knowledge on the
existence of different types of relations (chemical bonds) between atoms is
used to modulate the interaction of nodes in the GNN. Second, knowledge of the
relevance of some physical quantities is used to constrain the learnt features
towards a higher physical relevance using a simple multi-task paradigm. We
demonstrate the general applicability of our knowledge integrations by applying
them to two architectures that rely on different mechanisms to propagate
information between nodes and to update node states.
- Abstract(参考訳): 我々は、事前のドメイン知識をディープニューラルネットワーク(DNN)の設計に統合するためのさまざまな戦略を探求する。
グラフニューラルネットワーク(gnn)に注目し,グラフとして表される化学系(分子,結晶)のポテンシャルエネルギーを推定する。
ドメイン知識の2つの要素をGNNの設計に統合し、学習を制約し、規則化し、より高精度で一般化する。
まず、GNN内のノード間の相互作用を変調するために、原子間の異なる種類の関係(化学結合)の存在に関する知識が使用される。
第二に、いくつかの物理量の関連性に関する知識は、単純なマルチタスクパラダイムを用いて学習した特徴を高い物理的関連性に制限するために使用される。
ノード間の情報伝達とノード状態の更新に異なるメカニズムに依存する2つのアーキテクチャに適用することで、知識統合の汎用性を実証する。
関連論文リスト
- Pushing the Limits of All-Atom Geometric Graph Neural Networks: Pre-Training, Scaling and Zero-Shot Transfer [15.302727191576784]
全原子情報を持つ幾何学グラフニューラルネットワーク(Geom-GNN)は、原子論シミュレーションを変換した。
本研究では,Geom-GNNの自己教師付き事前学習,教師付き学習,教師なし学習環境におけるスケーリング行動について検討する。
我々は、全ての原子グラフの埋め込みが他の神経アーキテクチャと有機的に組み合わされ、表現力を高めることができることを示す。
論文 参考訳(メタデータ) (2024-10-29T03:07:33Z) - Deep Neural Networks via Complex Network Theory: a Perspective [3.1023851130450684]
ディープニューラルネットワーク(DNN)は、リンクと頂点が反復的にデータを処理し、タスクを亜最適に解くグラフとして表現することができる。複雑なネットワーク理論(CNT)は、統計物理学とグラフ理論を融合させ、その重みとニューロン構造を分析してニューラルネットワークを解釈する方法を提供する。
本研究では,DNNのトレーニング分布から抽出した測定値を用いて既存のCNTメトリクスを拡張し,純粋なトポロジカル解析からディープラーニングの解釈可能性へ移行する。
論文 参考訳(メタデータ) (2024-04-17T08:42:42Z) - A Comparison Between Invariant and Equivariant Classical and Quantum Graph Neural Networks [3.350407101925898]
グラフニューラルネットワーク(GNN)のような深層幾何学的手法は、高エネルギー物理学における様々なデータ解析タスクに活用されている。
典型的なタスクはジェットタグであり、ジェットは異なる特徴とそれらの構成粒子間のエッジ接続を持つ点雲と見なされる。
本稿では,古典的グラフニューラルネットワーク(GNN)と,その量子回路との公平かつ包括的な比較を行う。
論文 参考訳(メタデータ) (2023-11-30T16:19:13Z) - Tensor Networks Meet Neural Networks: A Survey and Future Perspectives [27.878669143107885]
テンソルニューラルネットワーク(TNN)とニューラルネットワーク(NN)は2つの基本的なデータモデリングアプローチである。
TNは指数的な数の次元を複雑さに変換することによって、大規模テンソルの次元性の呪いを解決する。
NNは、コンピュータビジョン、自然言語処理、ロボット工学の研究など、様々な応用において優れたパフォーマンスを示している。
論文 参考訳(メタデータ) (2023-01-22T17:35:56Z) - Geometric Knowledge Distillation: Topology Compression for Graph Neural
Networks [80.8446673089281]
グラフトポロジ情報をグラフニューラルネットワーク(GNN)に符号化することを目的とした知識伝達の新しいパラダイムについて検討する。
本稿では,GNNのアーキテクチャに関する基礎となる多様体の幾何学的性質をカプセル化するためのニューラルヒートカーネル(NHK)を提案する。
基本的な原理的解法は、NHKを幾何学的知識蒸留(Geometric Knowledge Distillation)と呼ばれる教師モデルと学生モデルに合わせることで導かれる。
論文 参考訳(メタデータ) (2022-10-24T08:01:58Z) - Knowledge Enhanced Neural Networks for relational domains [83.9217787335878]
我々は、ニューラルネットワークに事前論理的知識を注入するニューラルネットワークアーキテクチャであるKENNに焦点を当てる。
本稿では,関係データに対するKENNの拡張を提案する。
論文 参考訳(メタデータ) (2022-05-31T13:00:34Z) - Discovering the Representation Bottleneck of Graph Neural Networks from
Multi-order Interactions [51.597480162777074]
グラフニューラルネットワーク(GNN)は、ノード機能を伝搬し、インタラクションを構築するためにメッセージパッシングパラダイムに依存している。
最近の研究は、異なるグラフ学習タスクはノード間の異なる範囲の相互作用を必要とすることを指摘している。
科学領域における2つの共通グラフ構築法、すなわち、emphK-nearest neighbor(KNN)グラフとemphfully-connected(FC)グラフについて検討する。
論文 参考訳(メタデータ) (2022-05-15T11:38:14Z) - Deep Architecture Connectivity Matters for Its Convergence: A
Fine-Grained Analysis [94.64007376939735]
我々は、勾配降下訓練におけるディープニューラルネットワーク(DNN)の収束に対する接続パターンの影響を理論的に特徴づける。
接続パターンの単純なフィルタリングによって、評価対象のモデルの数を削減できることが示される。
論文 参考訳(メタデータ) (2022-05-11T17:43:54Z) - Graph Neural Networks with Learnable Structural and Positional
Representations [83.24058411666483]
任意のグラフの大きな問題は、ノードの標準位置情報の欠如である。
ノードの位置ノード(PE)を導入し、Transformerのように入力層に注入する。
両方のGNNクラスで学習可能なPEを考えると、分子データセットのパフォーマンスは2.87%から64.14%に向上する。
論文 参考訳(メタデータ) (2021-10-15T05:59:15Z) - A Practical Tutorial on Graph Neural Networks [49.919443059032226]
グラフニューラルネットワーク(GNN)は、人工知能(AI)分野において最近人気が高まっている。
このチュートリアルでは、GNNのパワーとノベルティをAI実践者に公開している。
論文 参考訳(メタデータ) (2020-10-11T12:36:17Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。