論文の概要: Graphs, Convolutions, and Neural Networks: From Graph Filters to Graph
Neural Networks
- arxiv url: http://arxiv.org/abs/2003.03777v5
- Date: Wed, 19 May 2021 13:35:21 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-25 14:05:52.383269
- Title: Graphs, Convolutions, and Neural Networks: From Graph Filters to Graph
Neural Networks
- Title(参考訳): グラフ、畳み込み、ニューラルネットワーク:グラフフィルタからグラフニューラルネットワークへ
- Authors: Fernando Gama, Elvin Isufi, Geert Leus, Alejandro Ribeiro
- Abstract要約: 我々はグラフ信号処理を活用してグラフニューラルネットワーク(GNN)の表現空間を特徴付ける。
GNNにおけるグラフ畳み込みフィルタの役割について議論し、そのようなフィルタで構築されたアーキテクチャは、置換同値の基本的な性質と位相変化に対する安定性を持つことを示す。
また,ロボット群に対するリコメンデータシステムや分散型コントローラの学習におけるGNNの利用について検討した。
- 参考スコア(独自算出の注目度): 183.97265247061847
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Network data can be conveniently modeled as a graph signal, where data values
are assigned to nodes of a graph that describes the underlying network
topology. Successful learning from network data is built upon methods that
effectively exploit this graph structure. In this work, we leverage graph
signal processing to characterize the representation space of graph neural
networks (GNNs). We discuss the role of graph convolutional filters in GNNs and
show that any architecture built with such filters has the fundamental
properties of permutation equivariance and stability to changes in the
topology. These two properties offer insight about the workings of GNNs and
help explain their scalability and transferability properties which, coupled
with their local and distributed nature, make GNNs powerful tools for learning
in physical networks. We also introduce GNN extensions using edge-varying and
autoregressive moving average graph filters and discuss their properties.
Finally, we study the use of GNNs in recommender systems and learning
decentralized controllers for robot swarms.
- Abstract(参考訳): ネットワークデータはグラフ信号として便利にモデル化され、基礎となるネットワークトポロジを記述するグラフのノードにデータ値が割り当てられる。
ネットワークデータからの学習は、このグラフ構造を効果的に活用する手法に基づいている。
本研究では,グラフ信号処理を利用してグラフニューラルネットワーク(GNN)の表現空間を特徴付ける。
GNNにおけるグラフ畳み込みフィルタの役割について議論し、そのようなフィルタで構築されたアーキテクチャは、置換同値の基本的な性質と位相変化に対する安定性を持つことを示す。
これらの2つの特性は、GNNの動作に関する洞察を与え、そのスケーラビリティと転送可能性の特性を説明するのに役立つ。
また、エッジ可変および自己回帰移動平均グラフフィルタを用いてGNN拡張を導入し、それらの特性について議論する。
最後に,ロボット群に対するリコメンデータシステムと分散型コントローラの学習におけるGNNの利用について検討する。
関連論文リスト
- Transferability of Graph Neural Networks using Graphon and Sampling Theories [0.0]
グラフニューラルネットワーク(GNN)は、さまざまなドメインでグラフベースの情報を処理するための強力なツールとなっている。
GNNの望ましい特性は転送可能性であり、トレーニングされたネットワークは、その正確性を再トレーニングすることなく、異なるグラフから情報を交換することができる。
我々は,2層グラファイトニューラルネットワーク(WNN)アーキテクチャを明示することにより,GNNへのグラファイトの適用に寄与する。
論文 参考訳(メタデータ) (2023-07-25T02:11:41Z) - MentorGNN: Deriving Curriculum for Pre-Training GNNs [61.97574489259085]
本稿では,グラフ間のGNNの事前学習プロセスの監視を目的とした,MentorGNNというエンドツーエンドモデルを提案する。
我々は、事前学習したGNNの一般化誤差に自然かつ解釈可能な上限を導出することにより、関係データ(グラフ)に対するドメイン適応の問題に新たな光を当てた。
論文 参考訳(メタデータ) (2022-08-21T15:12:08Z) - Overcoming Oversmoothness in Graph Convolutional Networks via Hybrid
Scattering Networks [11.857894213975644]
本稿では,従来のGCNフィルタと幾何散乱変換を用いて定義された帯域通過フィルタを組み合わせたハイブリッドグラフニューラルネットワーク(GNN)フレームワークを提案する。
理論的には, グラフからの構造情報を活用するために散乱フィルタの相補的な利点が確立され, 実験では様々な学習課題における手法の利点が示された。
論文 参考訳(メタデータ) (2022-01-22T00:47:41Z) - Graph Neural Networks with Learnable Structural and Positional
Representations [83.24058411666483]
任意のグラフの大きな問題は、ノードの標準位置情報の欠如である。
ノードの位置ノード(PE)を導入し、Transformerのように入力層に注入する。
両方のGNNクラスで学習可能なPEを考えると、分子データセットのパフォーマンスは2.87%から64.14%に向上する。
論文 参考訳(メタデータ) (2021-10-15T05:59:15Z) - A Unified View on Graph Neural Networks as Graph Signal Denoising [49.980783124401555]
グラフニューラルネットワーク(GNN)は,グラフ構造化データの学習表現において顕著に普及している。
本研究では,代表的GNNモデル群における集約過程を,グラフ記述問題の解法とみなすことができることを数学的に確立する。
UGNNから派生した新しいGNNモデルADA-UGNNをインスタンス化し、ノード間の適応的滑らかさでグラフを処理する。
論文 参考訳(メタデータ) (2020-10-05T04:57:18Z) - Graph Neural Networks: Architectures, Stability and Transferability [176.3960927323358]
グラフニューラルネットワーク(GNN)は、グラフでサポートされている信号のための情報処理アーキテクチャである。
これらは、個々の層がグラフ畳み込みフィルタのバンクを含む畳み込みニューラルネットワーク(CNN)の一般化である。
論文 参考訳(メタデータ) (2020-08-04T18:57:36Z) - Higher-Order Explanations of Graph Neural Networks via Relevant Walks [3.1510406584101776]
グラフニューラルネットワーク(GNN)は、グラフ構造化データを予測するための一般的なアプローチである。
本稿では,GNNを高次展開を用いて自然に説明できることを示す。
本稿では,テキストデータの感情分析,量子化学における構造・不適切な関係,画像分類に関する実践的な知見を抽出する。
論文 参考訳(メタデータ) (2020-06-05T17:59:14Z) - XGNN: Towards Model-Level Explanations of Graph Neural Networks [113.51160387804484]
グラフニューラルネットワーク(GNN)は、隣の情報を集約して組み合わせることでノードの特徴を学習する。
GNNはブラックボックスとして扱われ、人間の知的な説明が欠けている。
我々はモデルレベルでGNNを解釈する新しい手法 XGNN を提案する。
論文 参考訳(メタデータ) (2020-06-03T23:52:43Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。