論文の概要: Building powerful and equivariant graph neural networks with structural
message-passing
- arxiv url: http://arxiv.org/abs/2006.15107v3
- Date: Fri, 23 Oct 2020 12:03:42 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-16 21:14:13.866963
- Title: Building powerful and equivariant graph neural networks with structural
message-passing
- Title(参考訳): 構造的メッセージパッシングを用いた強力で等価なグラフニューラルネットワークの構築
- Authors: Clement Vignac, Andreas Loukas, Pascal Frossard
- Abstract要約: 本稿では,2つのアイデアに基づいた,強力かつ同変なメッセージパッシングフレームワークを提案する。
まず、各ノードの周囲の局所的コンテキスト行列を学習するために、特徴に加えてノードの1ホット符号化を伝搬する。
次に,メッセージのパラメトリゼーション手法を提案する。
- 参考スコア(独自算出の注目度): 74.93169425144755
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Message-passing has proved to be an effective way to design graph neural
networks, as it is able to leverage both permutation equivariance and an
inductive bias towards learning local structures in order to achieve good
generalization. However, current message-passing architectures have a limited
representation power and fail to learn basic topological properties of graphs.
We address this problem and propose a powerful and equivariant message-passing
framework based on two ideas: first, we propagate a one-hot encoding of the
nodes, in addition to the features, in order to learn a local context matrix
around each node. This matrix contains rich local information about both
features and topology and can eventually be pooled to build node
representations. Second, we propose methods for the parametrization of the
message and update functions that ensure permutation equivariance. Having a
representation that is independent of the specific choice of the one-hot
encoding permits inductive reasoning and leads to better generalization
properties. Experimentally, our model can predict various graph topological
properties on synthetic data more accurately than previous methods and achieves
state-of-the-art results on molecular graph regression on the ZINC dataset.
- Abstract(参考訳): メッセージパッシングは、適切な一般化を達成するために、置換同値と帰納バイアスの両方を局所構造学習に活用できるため、グラフニューラルネットワークを設計する効果的な方法であることが証明されている。
しかし、現在のメッセージパッシングアーキテクチャは表現能力が限られており、グラフの基本トポロジ特性を学習できない。
この問題に対処し、まず、各ノードの周囲の局所的コンテキスト行列を学習するために、特徴に加えて、ノードの1ホット符号化を伝搬する、という2つのアイデアに基づいて、強力で同変なメッセージパッシングフレームワークを提案する。
このマトリックスには、機能とトポロジーの両方に関する豊富なローカル情報が含まれており、最終的にノード表現を構築するためにプールすることができる。
第2に,メッセージのパラメトリゼーション手法と置換同値性を保証する更新関数を提案する。
ワンホット符号化の特定の選択に依存しない表現を持つことは、帰納的推論を許容し、より良い一般化特性をもたらす。
実験により, 合成データの様々なグラフトポロジ特性を従来手法よりも正確に予測し, ZINCデータセット上での分子グラフ回帰の最先端結果を得ることができた。
関連論文リスト
- Scalable Graph Compressed Convolutions [68.85227170390864]
ユークリッド畳み込みのための入力グラフのキャリブレーションに置換を適用する微分可能手法を提案する。
グラフキャリブレーションに基づいて,階層型グラフ表現学習のための圧縮畳み込みネットワーク(CoCN)を提案する。
論文 参考訳(メタデータ) (2024-07-26T03:14:13Z) - GrannGAN: Graph annotation generative adversarial networks [72.66289932625742]
本稿では,高次元分布をモデル化し,グラフスケルトンと整合した複雑な関係特徴構造を持つデータの新しい例を生成することの問題点を考察する。
提案するモデルは,タスクを2つのフェーズに分割することで,各データポイントのグラフ構造に制約されたデータ特徴を生成する問題に対処する。
第一に、与えられたグラフのノードに関連する機能の分布をモデル化し、第二に、ノードのフィーチャに条件付きでエッジ機能を補完する。
論文 参考訳(メタデータ) (2022-12-01T11:49:07Z) - Local Permutation Equivariance For Graph Neural Networks [2.208242292882514]
そこで我々は,局所置換同変グラフニューラルネットワークという新しい手法を開発した。
ローカルノード近傍で動作するグラフニューラルネットワークを構築するためのフレームワークを提供する。
提案手法を,グラフベンチマークの分類タスクの範囲で実験的に検証する。
論文 参考訳(メタデータ) (2021-11-23T13:10:34Z) - Learning to Learn Graph Topologies [27.782971146122218]
ノードデータからグラフ構造へのマッピングを学習する(L2O)。
このモデルは、ノードデータとグラフサンプルのペアを使ってエンドツーエンドでトレーニングされる。
合成データと実世界のデータの両方の実験により、我々のモデルは、特定のトポロジ特性を持つグラフを学習する際の古典的反復アルゴリズムよりも効率的であることが示された。
論文 参考訳(メタデータ) (2021-10-19T08:42:38Z) - GraphiT: Encoding Graph Structure in Transformers [37.33808493548781]
古典的グラフニューラルネットワーク(GNN)を用いて学習した表現を,ノードの特徴と構造的および位置的情報の集合として見ることにより,より優れた表現を実現できることを示す。
我々のモデルであるGraphiTは,グラフ上の正定値カーネルに基づく自己注意スコアにおける相対的な位置符号化戦略と,短距離パスなどの局所的なサブ構造を列挙して符号化することで,そのような情報を符号化する。
論文 参考訳(メタデータ) (2021-06-10T11:36:22Z) - Symmetry-driven graph neural networks [1.713291434132985]
ノード座標に影響を及ぼすいくつかの変換に同値なグラフネットワークアーキテクチャを2つ導入する。
我々はこれらの機能を$n$次元の幾何学的オブジェクトからなる合成データセット上で実証する。
論文 参考訳(メタデータ) (2021-05-28T18:54:12Z) - Self-Supervised Graph Representation Learning via Topology
Transformations [61.870882736758624]
本稿では,グラフデータのノード表現のための自己教師型学習の一般的なパラダイムであるトポロジー変換同変表現学習について述べる。
実験では,提案手法を下流ノードおよびグラフ分類タスクに適用し,提案手法が最先端の教師なし手法より優れていることを示す。
論文 参考訳(メタデータ) (2021-05-25T06:11:03Z) - GraphFormers: GNN-nested Transformers for Representation Learning on
Textual Graph [53.70520466556453]
階層的にGNNコンポーネントを言語モデルのトランスフォーマーブロックと一緒にネストするGraphFormerを提案する。
提案したアーキテクチャでは、テキストエンコーディングとグラフ集約を反復的なワークフローに融合する。
さらに、プログレッシブ・ラーニング・ストラテジーを導入し、そのモデルが操作されたデータと元のデータに基づいて連続的に訓練され、グラフ上の情報を統合する能力を強化する。
論文 参考訳(メタデータ) (2021-05-06T12:20:41Z) - Topological Regularization for Graph Neural Networks Augmentation [12.190045459064413]
本稿では,トポロジカル正則化に基づくグラフノードの機能拡張手法を提案する。
我々は,モデルの有効性を証明するために,多数のデータセットについて広範な実験を行った。
論文 参考訳(メタデータ) (2021-04-03T01:37:44Z) - Permutation-equivariant and Proximity-aware Graph Neural Networks with
Stochastic Message Passing [88.30867628592112]
グラフニューラルネットワーク(GNN)は、グラフ上の新たな機械学習モデルである。
置換等価性と近接認識性は、GNNにとって非常に望ましい2つの重要な特性である。
既存のGNNは、主にメッセージパッシング機構に基づいており、同時に2つの特性を保存できないことを示す。
ノードの近さを保つため,既存のGNNをノード表現で拡張する。
論文 参考訳(メタデータ) (2020-09-05T16:46:56Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。