論文の概要: Deformable Graph Convolutional Networks
- arxiv url: http://arxiv.org/abs/2112.14438v1
- Date: Wed, 29 Dec 2021 07:55:29 GMT
- ステータス: 処理完了
- システム内更新日: 2021-12-30 15:44:02.551147
- Title: Deformable Graph Convolutional Networks
- Title(参考訳): 変形可能なグラフ畳み込みネットワーク
- Authors: Jinyoung Park, Sungdong Yoo, Jihwan Park, Hyunwoo J. Kim
- Abstract要約: グラフニューラルネットワーク(GNN)は、グラフ構造化データの表現能力を大幅に改善した。
本稿では,複数の潜在空間における畳み込みを適応的に行うDeformable Graph Convolutional Networks (Deformable GCNs)を提案する。
我々のフレームワークはノードの位置埋め込みを同時に学習し、ノード間の関係をエンドツーエンドで決定する。
- 参考スコア(独自算出の注目度): 12.857403315970231
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Graph neural networks (GNNs) have significantly improved the representation
power for graph-structured data. Despite of the recent success of GNNs, the
graph convolution in most GNNs have two limitations. Since the graph
convolution is performed in a small local neighborhood on the input graph, it
is inherently incapable to capture long-range dependencies between distance
nodes. In addition, when a node has neighbors that belong to different classes,
i.e., heterophily, the aggregated messages from them often negatively affect
representation learning. To address the two common problems of graph
convolution, in this paper, we propose Deformable Graph Convolutional Networks
(Deformable GCNs) that adaptively perform convolution in multiple latent spaces
and capture short/long-range dependencies between nodes. Separated from node
representations (features), our framework simultaneously learns the node
positional embeddings (coordinates) to determine the relations between nodes in
an end-to-end fashion. Depending on node position, the convolution kernels are
deformed by deformation vectors and apply different transformations to its
neighbor nodes. Our extensive experiments demonstrate that Deformable GCNs
flexibly handles the heterophily and achieve the best performance in node
classification tasks on six heterophilic graph datasets.
- Abstract(参考訳): グラフニューラルネットワーク(GNN)は、グラフ構造化データの表現能力を大幅に改善した。
最近のGNNの成功にもかかわらず、ほとんどのGNNにおけるグラフの畳み込みには2つの制限がある。
グラフ畳み込みは入力グラフ上の小さなローカル近傍で実行されるため、本質的には距離ノード間の長距離依存関係をキャプチャできない。
さらに、ノードが異なるクラス、すなわちヘテロフィリに属する隣人を持っている場合、それらの集約されたメッセージは、しばしば表現学習に悪影響を及ぼす。
本稿では,複数の潜在空間における畳み込みを適応的に実行し,ノード間の短距離・長距離の依存関係をキャプチャする,変形可能なグラフ畳み込みネットワーク (deformable gcns) を提案する。
ノード表現(機能)から分離したフレームワークは,ノードの位置埋め込み(コーディネート)を同時に学習し,ノード間の関係をエンドツーエンドで決定する。
ノードの位置によっては、畳み込み核は変形ベクトルによって変形し、隣接するノードに異なる変換を適用する。
広範な実験により,変形可能なgcnがヘテロフィリを柔軟に処理し,6つのヘテロフィリエイトグラフデータセットのノード分類タスクにおいて最高の性能が得られることを示した。
関連論文リスト
- Transfer Entropy in Graph Convolutional Neural Networks [0.0]
グラフ畳み込みネットワーク(Graph Convolutional Networks、GCN)は、グラフ上に畳み込みを適用するグラフニューラルネットワークである。
本研究は,GCNに関する2つの重要な課題に対処する。
オーバースムーシング(Oversmoothing)とは、繰り返しの集約の結果、ノードの識別能力が低下することである。
本稿では,2つの時間変化ノード間の情報転送量を測定するTransfer Entropy (TE) に基づくGCNにおけるこれらの課題に対処するための新しい戦略を提案する。
論文 参考訳(メタデータ) (2024-06-08T20:09:17Z) - Degree-based stratification of nodes in Graph Neural Networks [66.17149106033126]
グラフニューラルネットワーク(GNN)アーキテクチャを変更して,各グループのノードに対して,重み行列を個別に学習する。
このシンプルな実装変更により、データセットとGNNメソッドのパフォーマンスが改善されているようだ。
論文 参考訳(メタデータ) (2023-12-16T14:09:23Z) - NodeFormer: A Scalable Graph Structure Learning Transformer for Node
Classification [70.51126383984555]
本稿では,任意のノード間のノード信号を効率的に伝搬する全ペアメッセージパッシング方式を提案する。
効率的な計算は、カーナライズされたGumbel-Softmax演算子によって実現される。
グラフ上のノード分類を含む様々なタスクにおいて,本手法の有望な有効性を示す実験を行った。
論文 参考訳(メタデータ) (2023-06-14T09:21:15Z) - Seq-HGNN: Learning Sequential Node Representation on Heterogeneous Graph [57.2953563124339]
本稿では,シーケンシャルノード表現,すなわちSeq-HGNNを用いた新しい異種グラフニューラルネットワークを提案する。
Heterogeneous Graph Benchmark (HGB) と Open Graph Benchmark (OGB) の4つの広く使われているデータセットについて広範な実験を行った。
論文 参考訳(メタデータ) (2023-05-18T07:27:18Z) - Structural Imbalance Aware Graph Augmentation Learning [2.793446335600599]
グラフはしばしば構造的に不均衡であり、いくつかのハブノードだけがより密な局所構造を持ち、より強い影響を持つ。
本稿では,この問題を解決するために,選択的グラフ拡張法(SAug)を提案する。
大規模な実験により、SAugはバックボーンのGNNを大幅に改善し、競合他社よりも優れたパフォーマンスを達成できることが示された。
論文 参考訳(メタデータ) (2023-03-24T02:13:32Z) - Graph Neural Networks with Feature and Structure Aware Random Walk [5.431036185361236]
典型的な好適なグラフでは、エッジを指向する可能性があり、エッジをそのまま扱うか、あるいは単純に非指向にするかは、GNNモデルの性能に大きな影響を与える。
そこで我々は,グラフの方向性を適応的に学習するモデルを開発し,ノード間の長距離相関を生かした。
論文 参考訳(メタデータ) (2021-11-19T08:54:21Z) - Graph Neural Networks with Learnable Structural and Positional
Representations [83.24058411666483]
任意のグラフの大きな問題は、ノードの標準位置情報の欠如である。
ノードの位置ノード(PE)を導入し、Transformerのように入力層に注入する。
両方のGNNクラスで学習可能なPEを考えると、分子データセットのパフォーマンスは2.87%から64.14%に向上する。
論文 参考訳(メタデータ) (2021-10-15T05:59:15Z) - Graph Transformer Networks: Learning Meta-path Graphs to Improve GNNs [20.85042364993559]
本稿では,新しいグラフ構造を生成し,タスクに有用な接続を含むグラフトランスフォーマーネットワーク(GTN)を提案する。
Fast Graph Transformer Networks (FastGTNs) は230倍高速で、100倍少ないメモリを使用する。
グラフ変換を、メタパスを超えた非局所的な操作を可能にするノードの意味的近接に拡張する。
論文 参考訳(メタデータ) (2021-06-11T07:56:55Z) - Factorizable Graph Convolutional Networks [90.59836684458905]
本稿では,グラフに符号化された相互に絡み合った関係を明示的に解消する新しいグラフ畳み込みネットワーク(GCN)を提案する。
FactorGCNは単純なグラフを入力として取り、それをいくつかの分解グラフに分解する。
提案したFacterGCNは,合成および実世界のデータセットに対して質的かつ定量的に評価する。
論文 参考訳(メタデータ) (2020-10-12T03:01:40Z) - Bilinear Graph Neural Network with Neighbor Interactions [106.80781016591577]
グラフニューラルネットワーク(GNN)は,グラフデータ上で表現を学習し,予測を行う強力なモデルである。
本稿では,グラフ畳み込み演算子を提案し,隣接するノードの表現の対の相互作用で重み付け和を増大させる。
このフレームワークをBGNN(Bilinear Graph Neural Network)と呼び、隣ノード間の双方向相互作用によるGNN表現能力を向上させる。
論文 参考訳(メタデータ) (2020-02-10T06:43:38Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。