論文の概要: Motif Graph Neural Network
- arxiv url: http://arxiv.org/abs/2112.14900v1
- Date: Thu, 30 Dec 2021 02:57:36 GMT
- ステータス: 処理完了
- システム内更新日: 2022-01-03 15:05:53.480301
- Title: Motif Graph Neural Network
- Title(参考訳): モチーフグラフニューラルネットワーク
- Authors: Xuexin Chen, Ruichu Cai, Yuan Fang, Min Wu, Zijian Li, Zhifeng Hao
- Abstract要約: グラフニューラルネットワーク(GNN)は、グラフ埋め込みアプローチで最も一般的なモデルである。
近隣の集約パラダイムにおける標準GNNは、高階グラフ構造を区別する際、限定的な識別力に悩まされる。
我々は高次構造をよりよく捉えるための新しいフレームワークである Motif Graph Neural Network (MGNN) を提案する。
- 参考スコア(独自算出の注目度): 33.10250931478523
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Graphs can model complicated interactions between entities, which naturally
emerge in many important applications. These applications can often be cast
into standard graph learning tasks, in which a crucial step is to learn
low-dimensional graph representations. Graph neural networks (GNNs) are
currently the most popular model in graph embedding approaches. However,
standard GNNs in the neighborhood aggregation paradigm suffer from limited
discriminative power in distinguishing \emph{high-order} graph structures as
opposed to \emph{low-order} structures. To capture high-order structures,
researchers have resorted to motifs and developed motif-based GNNs. However,
existing motif-based GNNs still often suffer from less discriminative power on
high-order structures. To overcome the above limitations, we propose Motif
Graph Neural Network (MGNN), a novel framework to better capture high-order
structures, hinging on our proposed motif redundancy minimization operator and
injective motif combination. First, MGNN produces a set of node representations
w.r.t. each motif. The next phase is our proposed redundancy minimization among
motifs which compares the motifs with each other and distills the features
unique to each motif. Finally, MGNN performs the updating of node
representations by combining multiple representations from different motifs. In
particular, to enhance the discriminative power, MGNN utilizes an injective
function to combine the representations w.r.t. different motifs. We further
show that our proposed architecture increases the expressive power of GNNs with
a theoretical analysis. We demonstrate that MGNN outperforms state-of-the-art
methods on seven public benchmarks on both node classification and graph
classification tasks.
- Abstract(参考訳): グラフはエンティティ間の複雑な相互作用をモデル化することができる。
これらのアプリケーションは、しばしば標準的なグラフ学習タスクにキャストされ、重要なステップは低次元グラフ表現を学ぶことである。
グラフニューラルネットワーク(GNN)は現在、グラフ埋め込みアプローチで最も人気のあるモデルである。
しかし、近傍集約のパラダイムにおける標準GNNは、 \emph{high-order} グラフ構造を \emph{low-order} 構造とは対照的に区別する際の限定的な識別力に悩まされる。
高次構造を捉えるために、研究者はモチーフに頼り、モチーフベースのGNNを開発した。
しかし、既存のモチーフベースのGNNは高次構造に対する識別力の低下に悩まされることが多い。
上記の制約を克服するために,高次構造をよりよく捉えるための新しい枠組みであるモチーフグラフニューラルネットワーク(mgnn)を提案し,提案するモチーフ冗長化演算子とインジェクティブモチーフの組み合わせについて検討した。
まず、MGNNは各モチーフのノード表現のセットを生成する。
次の段階はモチーフ間の冗長性の最小化であり、モチーフを互いに比較し、各モチーフ特有の特徴を蒸留する。
最後に、MGNNは異なるモチーフから複数の表現を組み合わせることでノード表現の更新を行う。
特に、差別力を高めるために、MGNNは、異なるモチーフの表現を結合するためにインジェクティブ関数を利用する。
さらに,提案アーキテクチャは理論解析により,GNNの表現力を高めることを示す。
MGNNはノード分類とグラフ分類の両方において、7つの公開ベンチマークにおいて最先端の手法よりも優れていることを示す。
関連論文リスト
- Uplifting the Expressive Power of Graph Neural Networks through Graph
Partitioning [3.236774847052122]
グラフ分割のレンズによるグラフニューラルネットワークの表現力について検討する。
我々は新しいGNNアーキテクチャ、すなわちグラフ分割ニューラルネットワーク(GPNN)を導入する。
論文 参考訳(メタデータ) (2023-12-14T06:08:35Z) - Gradient Gating for Deep Multi-Rate Learning on Graphs [62.25886489571097]
グラフニューラルネットワーク(GNN)の性能向上のための新しいフレームワークであるグラディエントゲーティング(G$2$)を提案する。
我々のフレームワークは,GNN層の出力を,基盤となるグラフのノード間でのメッセージパッシング情報のマルチレートフローのメカニズムでゲーティングすることに基づいている。
論文 参考訳(メタデータ) (2022-10-02T13:19:48Z) - High-Order Pooling for Graph Neural Networks with Tensor Decomposition [23.244580796300166]
グラフニューラルネットワーク(GNN)は、さまざまなグラフ構造化データモデリングの有効性と柔軟性から、注目を集めている。
本稿では,高次非線形ノード相互作用をモデル化するためにテンソル分解に依存する高表現性GNNアーキテクチャであるGraphized Neural Network (tGNN)を提案する。
論文 参考訳(メタデータ) (2022-05-24T01:12:54Z) - Incorporating Heterophily into Graph Neural Networks for Graph Classification [6.709862924279403]
グラフニューラルネットワーク(GNN)は、しばしばグラフ分類において強いホモフィリを仮定し、ヘテロフィリを考えることは滅多にない。
We developed a novel GNN architecture called IHGNN (short for Incorporated Heterophily into Graph Neural Networks)
我々は、様々なグラフデータセット上でIHGNNを実証的に検証し、グラフ分類のための最先端のGNNよりも優れていることを示す。
論文 参考訳(メタデータ) (2022-03-15T06:48:35Z) - Higher-Order Attribute-Enhancing Heterogeneous Graph Neural Networks [67.25782890241496]
異種ネットワーク表現学習のための高次属性強化グラフニューラルネットワーク(HAEGNN)を提案する。
HAEGNNは、リッチで異質なセマンティクスのためのメタパスとメタグラフを同時に組み込む。
ノード分類、ノードクラスタリング、可視化における最先端の手法よりも優れたパフォーマンスを示す。
論文 参考訳(メタデータ) (2021-04-16T04:56:38Z) - Counting Substructures with Higher-Order Graph Neural Networks:
Possibility and Impossibility Results [58.277290855841976]
グラフニューラルネットワーク(GNN)の計算コストと表現力のトレードオフについて検討する。
新しいモデルでは、$k$のサブグラフをカウントでき、低次GNNの既知の制限を克服できることを示す。
いくつかの場合において、提案アルゴリズムは既存の高階$k$-GNNに比べて計算量を大幅に削減することができる。
論文 参考訳(メタデータ) (2020-12-06T03:42:54Z) - Towards Expressive Graph Representation [16.17079730998607]
グラフニューラルネットワーク(GNN)は、各ノードの近傍をノード埋め込みに集約する。
GNNにおける近傍集約のための連続的入射集合関数を設計するための理論的枠組みを提案する。
複数のベンチマークデータセットからグラフ分類を行うために提案した表現型GNNを検証する。
論文 参考訳(メタデータ) (2020-10-12T03:13:41Z) - The Surprising Power of Graph Neural Networks with Random Node
Initialization [54.4101931234922]
グラフニューラルネットワーク(GNN)は、関係データ上での表現学習に有効なモデルである。
標準 GNN はその表現力に制限があり、Weisfeiler-Leman グラフ同型(英語版)の能力以外の区別はできない。
本研究では,ランダムノード(RNI)を用いたGNNの表現力の解析を行う。
我々はこれらのモデルが普遍的であることを証明し、GNNが高次特性の計算に頼らない最初の結果である。
論文 参考訳(メタデータ) (2020-10-02T19:53:05Z) - Distance Encoding: Design Provably More Powerful Neural Networks for
Graph Representation Learning [63.97983530843762]
グラフニューラルネットワーク(GNN)はグラフ表現学習において大きな成功を収めている。
GNNは、実際には非常に異なるグラフ部分構造に対して同一の表現を生成する。
より強力なGNNは、最近高階試験を模倣して提案され、基礎となるグラフ構造を疎結合にできないため、非効率である。
本稿では,グラフ表現学習の新たなクラスとして距離分解(DE)を提案する。
論文 参考訳(メタデータ) (2020-08-31T23:15:40Z) - Improving Graph Neural Network Expressivity via Subgraph Isomorphism
Counting [63.04999833264299]
グラフサブストラクチャネットワーク(GSN)は,サブストラクチャエンコーディングに基づくトポロジ的に認識可能なメッセージパッシング方式である。
Wesfeiler-Leman (WL) グラフ同型テストよりも厳密に表現可能であることを示す。
グラフ分類と回帰タスクについて広範囲に評価を行い、様々な実世界の環境において最先端の結果を得る。
論文 参考訳(メタデータ) (2020-06-16T15:30:31Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。