論文の概要: Attention-based Graph Convolution Fusing Latent Structures and Multiple
Features for Graph Neural Networks
- arxiv url: http://arxiv.org/abs/2303.00944v2
- Date: Fri, 3 Mar 2023 03:02:45 GMT
- ステータス: 処理完了
- システム内更新日: 2023-03-06 11:40:07.703240
- Title: Attention-based Graph Convolution Fusing Latent Structures and Multiple
Features for Graph Neural Networks
- Title(参考訳): グラフニューラルネットワークの潜在構造と複数特徴を考慮した注意型グラフ畳み込み
- Authors: Yang Li and Yuichi Tanaka
- Abstract要約: グラフニューラルネットワーク(GNN)のための注意に基づく空間グラフ畳み込み(AGC)を提案する。
本研究では,高次元空間における構造情報を活用することにより,AGCの表現力を向上させる2つの手法を提案する。
また、点群分類のためのGNNと、提案したAGCに基づいて点群内の点群を予測するためのGNNを提案する。
- 参考スコア(独自算出の注目度): 16.093309879445766
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: We present an attention-based spatial graph convolution (AGC) for graph
neural networks (GNNs). Existing AGCs focus on only using node-wise features
and utilizing one type of attention function when calculating attention
weights. Instead, we propose two methods to improve the representational power
of AGCs by utilizing 1) structural information in a high-dimensional space and
2) multiple attention functions when calculating their weights. The first
method computes a local structure representation of a graph in a
high-dimensional space. The second method utilizes multiple attention functions
simultaneously in one AGC. Both approaches can be combined. We also propose a
GNN for the classification of point clouds and that for the prediction of point
labels in a point cloud based on the proposed AGC. According to experiments,
the proposed GNNs perform better than existing methods. Our codes open at
https://github.com/liyang-tuat/SFAGC.
- Abstract(参考訳): 本稿では,グラフニューラルネットワーク(GNN)のための注意型空間グラフ畳み込み(AGC)を提案する。
既存のAGCはノードワイズ機能のみに焦点をあて、注意重みを計算する際に1種類の注意関数を利用する。
代わりに、AGCの表現力を改善するための2つの方法を提案する。
1)高次元空間における構造情報と
2)重みを計算する際の複数の注意機能。
第1の方法は、高次元空間におけるグラフの局所構造表現を計算する。
第2の方法は、1つのAGCで同時に複数の注意関数を利用する。
どちらのアプローチも組み合わせることができる。
また,ポイントクラウドの分類と,提案するagcに基づくポイントクラウド内のポイントラベルの予測のためのgnnを提案する。
実験の結果,提案したGNNは既存手法よりも優れた性能を示した。
私たちのコードはhttps://github.com/liyang-tuat/SFAGCで公開されています。
関連論文リスト
- Spectral Greedy Coresets for Graph Neural Networks [61.24300262316091]
ノード分類タスクにおける大規模グラフの利用は、グラフニューラルネットワーク(GNN)の現実的な応用を妨げる
本稿では,GNNのグラフコアセットについて検討し,スペクトル埋め込みに基づくエゴグラフの選択により相互依存の問題を回避する。
我々のスペクトルグレディグラフコアセット(SGGC)は、数百万のノードを持つグラフにスケールし、モデル事前学習の必要性を排除し、低ホモフィリーグラフに適用する。
論文 参考訳(メタデータ) (2024-05-27T17:52:12Z) - Local Structure-aware Graph Contrastive Representation Learning [12.554113138406688]
複数のビューからノードの構造情報をモデル化するための局所構造対応グラフ比較表現学習法(LS-GCL)を提案する。
ローカルビューでは、各ターゲットノードのセマンティックサブグラフが共有GNNエンコーダに入力され、サブグラフレベルに埋め込まれたターゲットノードを取得する。
グローバルな視点では、元のグラフはノードの必要不可欠な意味情報を保存しているので、共有GNNエンコーダを利用して、グローバルなグラフレベルでターゲットノードの埋め込みを学習する。
論文 参考訳(メタデータ) (2023-08-07T03:23:46Z) - Training Graph Neural Networks on Growing Stochastic Graphs [114.75710379125412]
グラフニューラルネットワーク(GNN)は、ネットワーク化されたデータの意味のあるパターンを活用するために、グラフ畳み込みに依存している。
我々は,成長するグラフ列の極限オブジェクトであるグラフオンを利用して,非常に大きなグラフ上のGNNを学習することを提案する。
論文 参考訳(メタデータ) (2022-10-27T16:00:45Z) - Structure-Aware Multi-Hop Graph Convolution for Graph Neural Networks [17.34565638458908]
グラフ上の信号を分類するための空間グラフ畳み込み(GC)を提案する。
本稿では,GCの性能向上のための2つの手法を提案する。
また,3次元点群と引用ネットワークにおけるノードの分類のためのGCを統合するグラフニューラルネットワーク(GNN)を提案する。
論文 参考訳(メタデータ) (2021-12-03T04:58:17Z) - Feature Correlation Aggregation: on the Path to Better Graph Neural
Networks [37.79964911718766]
グラフニューラルネットワーク(GNN)が導入される以前、不規則なデータ、特にグラフのモデリングと解析は、ディープラーニングのアキレスのヒールであると考えられていた。
本稿では,GNNのコア操作に対して,極めて単純かつ無作為な修正を施した中央ノード置換変分関数を提案する。
モデルの具体的な性能向上は、モデルがより少ないパラメータを使用しながら、有意なマージンで過去の最先端結果を上回った場合に観察される。
論文 参考訳(メタデータ) (2021-09-20T05:04:26Z) - Towards Efficient Graph Convolutional Networks for Point Cloud Handling [181.59146413326056]
ポイントクラウド上で学習するためのグラフ畳み込みネットワーク(GCN)の計算効率の向上を目指します。
一連の実験により、最適化されたネットワークは計算複雑性を減らし、メモリ消費を減らし、推論速度を加速した。
論文 参考訳(メタデータ) (2021-04-12T17:59:16Z) - Exploiting Local Geometry for Feature and Graph Construction for Better
3D Point Cloud Processing with Graph Neural Networks [22.936590869919865]
グラフニューラルネットワークの一般枠組みにおける点表現と局所近傍グラフ構築の改善を提案する。
提案されたネットワークは、トレーニングの収束を高速化する。
分類のための40%のより少ないエポック。
論文 参考訳(メタデータ) (2021-03-28T21:34:59Z) - Distance Encoding: Design Provably More Powerful Neural Networks for
Graph Representation Learning [63.97983530843762]
グラフニューラルネットワーク(GNN)はグラフ表現学習において大きな成功を収めている。
GNNは、実際には非常に異なるグラフ部分構造に対して同一の表現を生成する。
より強力なGNNは、最近高階試験を模倣して提案され、基礎となるグラフ構造を疎結合にできないため、非効率である。
本稿では,グラフ表現学習の新たなクラスとして距離分解(DE)を提案する。
論文 参考訳(メタデータ) (2020-08-31T23:15:40Z) - Fast Graph Attention Networks Using Effective Resistance Based Graph
Sparsification [70.50751397870972]
FastGATは、スペクトルスペーシフィケーションを用いて、注目に基づくGNNを軽量にし、入力グラフの最適プルーニングを生成する手法である。
我々は,ノード分類タスクのための大規模実世界のグラフデータセット上でFastGATを実験的に評価した。
論文 参考訳(メタデータ) (2020-06-15T22:07:54Z) - Spectral Graph Attention Network with Fast Eigen-approximation [103.93113062682633]
スペクトルグラフ注意ネットワーク(SpGAT)は、重み付きフィルタとグラフウェーブレットベースに関する異なる周波数成分の表現を学習する。
固有分解による計算コストを削減するために,高速近似変種SpGAT-Chebyを提案する。
半教師付きノード分類タスクにおけるSpGATとSpGAT-Chebyの性能を徹底的に評価する。
論文 参考訳(メタデータ) (2020-03-16T21:49:34Z) - Geom-GCN: Geometric Graph Convolutional Networks [15.783571061254847]
本稿では,この2つの弱点を克服するために,グラフニューラルネットワークのための新しい幾何集約手法を提案する。
提案したアグリゲーションスキームは置換不変であり、ノード埋め込み、構造近傍、二レベルアグリゲーションという3つのモジュールから構成される。
また,このスキームをGeom-GCNと呼ばれるグラフ畳み込みネットワークに実装し,グラフ上でトランスダクティブ学習を行う。
論文 参考訳(メタデータ) (2020-02-13T00:03:09Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。