論文の概要: Path Integral Based Convolution and Pooling for Graph Neural Networks
- arxiv url: http://arxiv.org/abs/2006.16811v2
- Date: Wed, 8 Jul 2020 15:03:01 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-15 14:30:52.387757
- Title: Path Integral Based Convolution and Pooling for Graph Neural Networks
- Title(参考訳): グラフニューラルネットワークのための経路積分に基づく畳み込みとプーリング
- Authors: Zheng Ma, Junyu Xuan, Yu Guang Wang, Ming Li, Pietro Lio
- Abstract要約: グラフの分類と回帰処理のための経路積分に基づくグラフニューラルネットワーク(PAN)を提案する。
PANは、さまざまなサイズと構造を持つ異なるグラフデータ用に調整可能な、汎用的なフレームワークを提供する。
実験結果から,PANは様々なグラフ分類/回帰タスクにおいて最先端の性能を達成することが示された。
- 参考スコア(独自算出の注目度): 12.801534458657592
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Graph neural networks (GNNs) extends the functionality of traditional neural
networks to graph-structured data. Similar to CNNs, an optimized design of
graph convolution and pooling is key to success. Borrowing ideas from physics,
we propose a path integral based graph neural networks (PAN) for classification
and regression tasks on graphs. Specifically, we consider a convolution
operation that involves every path linking the message sender and receiver with
learnable weights depending on the path length, which corresponds to the
maximal entropy random walk. It generalizes the graph Laplacian to a new
transition matrix we call maximal entropy transition (MET) matrix derived from
a path integral formalism. Importantly, the diagonal entries of the MET matrix
are directly related to the subgraph centrality, thus providing a natural and
adaptive pooling mechanism. PAN provides a versatile framework that can be
tailored for different graph data with varying sizes and structures. We can
view most existing GNN architectures as special cases of PAN. Experimental
results show that PAN achieves state-of-the-art performance on various graph
classification/regression tasks, including a new benchmark dataset from
statistical mechanics we propose to boost applications of GNN in physical
sciences.
- Abstract(参考訳): グラフニューラルネットワーク(GNN)は、従来のニューラルネットワークの機能をグラフ構造化データに拡張する。
CNNと同様、グラフの畳み込みとプーリングを最適化した設計が成功の鍵である。
物理からアイデアを借用し,グラフの分類と回帰処理のための経路積分型グラフニューラルネットワーク(PAN)を提案する。
具体的には、メッセージ送信側と受信側を結ぶ全ての経路を経路長に応じて学習可能な重みでリンクし、最大エントロピーランダムウォークに対応する畳み込み演算を考える。
これはグラフラプラシアンを、経路積分形式から導かれる極大エントロピー遷移(MET)行列と呼ばれる新しい遷移行列に一般化する。
重要なことに、MET行列の対角成分は、部分グラフ中心性に直接関係しており、自然かつ適応的なプーリング機構を提供する。
panは、さまざまなサイズと構造を備えたさまざまなグラフデータ用に調整可能な汎用フレームワークを提供する。
既存のほとんどのGNNアーキテクチャはPANの特別なケースとして見ることができます。
実験結果から, PANは様々なグラフ分類/回帰タスクにおいて, 物理科学におけるGNNの適用性を高めるために, 統計力学による新しいベンチマークデータセットを含む最先端の性能を達成できることが示唆された。
関連論文リスト
- Scalable Graph Compressed Convolutions [68.85227170390864]
ユークリッド畳み込みのための入力グラフのキャリブレーションに置換を適用する微分可能手法を提案する。
グラフキャリブレーションに基づいて,階層型グラフ表現学習のための圧縮畳み込みネットワーク(CoCN)を提案する。
論文 参考訳(メタデータ) (2024-07-26T03:14:13Z) - Connectivity Optimized Nested Graph Networks for Crystal Structures [1.1470070927586016]
グラフニューラルネットワーク(GNN)は、材料科学や化学における様々な応用に応用されている。
提案したモデルでは,MateBenchベンチマークのすべてのタスクにおいて,最新の結果が体系的に改善されることが示されている。
論文 参考訳(メタデータ) (2023-02-27T19:26:48Z) - Path Integral Based Convolution and Pooling for Heterogeneous Graph
Neural Networks [2.5889737226898437]
グラフニューラルネットワーク(GNN)は、ディープラーニングをグラフ構造データセットに拡張する。
画像予測に使用する畳み込みニューラルネットワーク(CNN)と同様に、畳み込み層とプーリング層がグラフ予測タスクにおけるGNNの成功の基礎となっている。
論文 参考訳(メタデータ) (2023-02-26T20:05:23Z) - Relation Embedding based Graph Neural Networks for Handling
Heterogeneous Graph [58.99478502486377]
我々は、同種GNNが不均一グラフを扱うのに十分な能力を持つように、シンプルで効率的なフレームワークを提案する。
具体的には、エッジ型関係と自己ループ接続の重要性を埋め込むために、関係1つのパラメータのみを使用する関係埋め込みベースのグラフニューラルネットワーク(RE-GNN)を提案する。
論文 参考訳(メタデータ) (2022-09-23T05:24:18Z) - Overcoming Oversmoothness in Graph Convolutional Networks via Hybrid
Scattering Networks [11.857894213975644]
本稿では,従来のGCNフィルタと幾何散乱変換を用いて定義された帯域通過フィルタを組み合わせたハイブリッドグラフニューラルネットワーク(GNN)フレームワークを提案する。
理論的には, グラフからの構造情報を活用するために散乱フィルタの相補的な利点が確立され, 実験では様々な学習課題における手法の利点が示された。
論文 参考訳(メタデータ) (2022-01-22T00:47:41Z) - Graph Kernel Neural Networks [53.91024360329517]
本稿では、グラフ上の内部積を計算するカーネル関数であるグラフカーネルを用いて、標準畳み込み演算子をグラフ領域に拡張することを提案する。
これにより、入力グラフの埋め込みを計算する必要のない完全に構造的なモデルを定義することができる。
私たちのアーキテクチャでは,任意の種類のグラフカーネルをプラグインすることが可能です。
論文 参考訳(メタデータ) (2021-12-14T14:48:08Z) - Adaptive Kernel Graph Neural Network [21.863238974404474]
グラフニューラルネットワーク(GNN)は,グラフ構造化データの表現学習において大きな成功を収めている。
本稿では,AKGNN(Adaptive Kernel Graph Neural Network)という新しいフレームワークを提案する。
AKGNNは、最初の試みで最適なグラフカーネルに統一的に適応することを学ぶ。
評価されたベンチマークデータセットで実験を行い、提案したAKGNNの優れた性能を示す有望な結果を得た。
論文 参考訳(メタデータ) (2021-12-08T20:23:58Z) - Spectral Graph Convolutional Networks With Lifting-based Adaptive Graph
Wavelets [81.63035727821145]
スペクトルグラフ畳み込みネットワーク(SGCN)はグラフ表現学習において注目を集めている。
本稿では,適応グラフウェーブレットを用いたグラフ畳み込みを実装した新しいスペクトルグラフ畳み込みネットワークを提案する。
論文 参考訳(メタデータ) (2021-08-03T17:57:53Z) - Data-Driven Learning of Geometric Scattering Networks [74.3283600072357]
最近提案された幾何散乱変換の緩和に基づく新しいグラフニューラルネットワーク(GNN)モジュールを提案する。
我々の学習可能な幾何散乱(LEGS)モジュールは、ウェーブレットの適応的なチューニングを可能にし、学習された表現に帯域通過の特徴が現れるように促す。
論文 参考訳(メタデータ) (2020-10-06T01:20:27Z) - Optimal Transport Graph Neural Networks [31.191844909335963]
現在のグラフニューラルネットワーク(GNN)アーキテクチャは、集約グラフ表現に平均または総和ノードを埋め込む。
本稿では,パラメトリックプロトタイプを用いたグラフ埋め込み計算モデルOT-GNNを紹介する。
論文 参考訳(メタデータ) (2020-06-08T14:57:39Z) - Graphs, Convolutions, and Neural Networks: From Graph Filters to Graph
Neural Networks [183.97265247061847]
我々はグラフ信号処理を活用してグラフニューラルネットワーク(GNN)の表現空間を特徴付ける。
GNNにおけるグラフ畳み込みフィルタの役割について議論し、そのようなフィルタで構築されたアーキテクチャは、置換同値の基本的な性質と位相変化に対する安定性を持つことを示す。
また,ロボット群に対するリコメンデータシステムや分散型コントローラの学習におけるGNNの利用について検討した。
論文 参考訳(メタデータ) (2020-03-08T13:02:15Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。