論文の概要: Graph Coordinates and Conventional Neural Networks -- An Alternative for
Graph Neural Networks
- arxiv url: http://arxiv.org/abs/2312.01342v1
- Date: Sun, 3 Dec 2023 10:14:10 GMT
- ステータス: 処理完了
- システム内更新日: 2023-12-05 17:44:06.966976
- Title: Graph Coordinates and Conventional Neural Networks -- An Alternative for
Graph Neural Networks
- Title(参考訳): グラフコーディネートと従来型ニューラルネットワーク - グラフニューラルネットワークの代替手段
- Authors: Zheyi Qin, Randy Paffenroth, Anura P. Jayasumana
- Abstract要約: メッセージパッシングGNNの新たな代替手段として,Topology Coordinate Neural Network (TCNN) と Directional Virtual Coordinate Neural Network (DVCNN) を提案する。
TCNNとDVCNNは、メッセージパッシングGNNの競合や優れたパフォーマンスを達成する。
私たちの研究は、グラフベースの機械学習のためのテクニックのツールボックスを拡張します。
- 参考スコア(独自算出の注目度): 0.10923877073891444
- License: http://creativecommons.org/licenses/by-sa/4.0/
- Abstract: Graph-based data present unique challenges and opportunities for machine
learning. Graph Neural Networks (GNNs), and especially those algorithms that
capture graph topology through message passing for neighborhood aggregation,
have been a leading solution. However, these networks often require substantial
computational resources and may not optimally leverage the information
contained in the graph's topology, particularly for large-scale or complex
graphs. We propose Topology Coordinate Neural Network (TCNN) and Directional
Virtual Coordinate Neural Network (DVCNN) as novel and efficient alternatives
to message passing GNNs, that directly leverage the graph's topology,
sidestepping the computational challenges presented by competing algorithms.
Our proposed methods can be viewed as a reprise of classic techniques for graph
embedding for neural network feature engineering, but they are novel in that
our embedding techniques leverage ideas in Graph Coordinates (GC) that are
lacking in current practice. Experimental results, benchmarked against the Open
Graph Benchmark Leaderboard, demonstrate that TCNN and DVCNN achieve
competitive or superior performance to message passing GNNs. For similar levels
of accuracy and ROC-AUC, TCNN and DVCNN need far fewer trainable parameters
than contenders of the OGBN Leaderboard. The proposed TCNN architecture
requires fewer parameters than any neural network method currently listed in
the OGBN Leaderboard for both OGBN-Proteins and OGBN-Products datasets.
Conversely, our methods achieve higher performance for a similar number of
trainable parameters. By providing an efficient and effective alternative to
message passing GNNs, our work expands the toolbox of techniques for
graph-based machine learning.
- Abstract(参考訳): グラフベースのデータは、機械学習に特有の課題と機会を提供する。
グラフニューラルネットワーク(GNN)、特に近隣の集約のためのメッセージパッシングを通じてグラフトポロジをキャプチャするアルゴリズムは、主要なソリューションである。
しかし、これらのネットワークは、しばしばかなりの計算資源を必要とし、グラフのトポロジー、特に大規模または複雑なグラフに含まれる情報を最適に活用することができない。
本稿では, グラフのトポロジーを直接活用し, 競合するアルゴリズムが提示する計算課題を回避し, メッセージパッシングgnnの新規かつ効率的な代替手段として, トポロジー座標ニューラルネットワーク (tcnn) と方向仮想座標ニューラルネットワーク (dvcnn) を提案する。
提案手法は,ニューラルネットワーク機能工学におけるグラフ埋め込みの古典的な手法の再構築と見なすことができるが,現在の手法では欠けているグラフ座標 (gc) のアイデアを活用する点で新しい手法である。
Open Graph Benchmark Leaderboardに対してベンチマークされた実験結果は、TNNとDVCNNがメッセージパッシングGNNに対して、競争力または優れたパフォーマンスを達成することを示した。
同様のレベルの精度とROC-AUCでは、TNNとDVCNNはOGBN Leaderboardの競技者よりもはるかに少ない訓練可能なパラメータを必要とする。
提案されたTNNアーキテクチャは、OGBN-ProteinsとOGBN-Productsデータセットの両方で現在OGBN Leaderboardにリストされているニューラルネットワークメソッドよりも少ないパラメータを必要とする。
逆に,本手法は,類似のトレーニング可能なパラメータに対して高い性能を実現する。
メッセージパッシングGNNの効率的な代替手段を提供することで、グラフベースの機械学習のためのツールボックスを拡張します。
関連論文リスト
- Cached Operator Reordering: A Unified View for Fast GNN Training [24.917363701638607]
グラフニューラルネットワーク(GNN)は、構造化グラフデータを扱う強力なツールであり、ノード分類、グラフ分類、クラスタリングといったタスクに対処する。
しかし、GNN計算のスパース性は、従来のディープニューラルネットワークと比較してパフォーマンス最適化に新たな課題をもたらす。
GNN計算,I/O,メモリの統一的なビューを提供することで,これらの課題に対処する。
論文 参考訳(メタデータ) (2023-08-23T12:27:55Z) - Transferability of Graph Neural Networks using Graphon and Sampling Theories [0.0]
グラフニューラルネットワーク(GNN)は、さまざまなドメインでグラフベースの情報を処理するための強力なツールとなっている。
GNNの望ましい特性は転送可能性であり、トレーニングされたネットワークは、その正確性を再トレーニングすることなく、異なるグラフから情報を交換することができる。
我々は,2層グラファイトニューラルネットワーク(WNN)アーキテクチャを明示することにより,GNNへのグラファイトの適用に寄与する。
論文 参考訳(メタデータ) (2023-07-25T02:11:41Z) - Training Graph Neural Networks on Growing Stochastic Graphs [114.75710379125412]
グラフニューラルネットワーク(GNN)は、ネットワーク化されたデータの意味のあるパターンを活用するために、グラフ畳み込みに依存している。
我々は,成長するグラフ列の極限オブジェクトであるグラフオンを利用して,非常に大きなグラフ上のGNNを学習することを提案する。
論文 参考訳(メタデータ) (2022-10-27T16:00:45Z) - KerGNNs: Interpretable Graph Neural Networks with Graph Kernels [14.421535610157093]
グラフニューラルネットワーク(GNN)は、下流グラフ関連タスクにおける最先端の手法となっている。
我々は新しいGNNフレームワークKernel Graph Neural Networks(KerGNNs)を提案する。
KerGNNはグラフカーネルをGNNのメッセージパッシングプロセスに統合する。
提案手法は,既存の最先端手法と比較して,競争性能が向上することを示す。
論文 参考訳(メタデータ) (2022-01-03T06:16:30Z) - Increase and Conquer: Training Graph Neural Networks on Growing Graphs [116.03137405192356]
本稿では,このグラフからBernoulliをサンプリングしたグラフ上でGNNをトレーニングすることで,WNN(Graphon Neural Network)を学習する問題を考察する。
これらの結果から着想を得た大規模グラフ上でGNNを学習するアルゴリズムを提案する。
論文 参考訳(メタデータ) (2021-06-07T15:05:59Z) - A Unified Lottery Ticket Hypothesis for Graph Neural Networks [82.31087406264437]
本稿では,グラフ隣接行列とモデルの重み付けを同時に行う統一GNNスペーシフィケーション(UGS)フレームワークを提案する。
グラフ宝くじ(GLT)をコアサブデータセットとスパースサブネットワークのペアとして定義することにより、人気のある宝くじチケット仮説を初めてGNNsにさらに一般化します。
論文 参考訳(メタデータ) (2021-02-12T21:52:43Z) - Analyzing the Performance of Graph Neural Networks with Pipe Parallelism [2.269587850533721]
ノードやエッジの分類やリンクの予測といったタスクで大きな成功を収めたグラフニューラルネットワーク(GNN)に注目した。
グラフ技術の進歩には,大規模ネットワーク処理のための新たなアプローチが必要である。
私たちは、ディープラーニングコミュニティで成功したと知られている既存のツールとフレームワークを使用して、GNNを並列化する方法を研究します。
論文 参考訳(メタデータ) (2020-12-20T04:20:38Z) - A Unified View on Graph Neural Networks as Graph Signal Denoising [49.980783124401555]
グラフニューラルネットワーク(GNN)は,グラフ構造化データの学習表現において顕著に普及している。
本研究では,代表的GNNモデル群における集約過程を,グラフ記述問題の解法とみなすことができることを数学的に確立する。
UGNNから派生した新しいGNNモデルADA-UGNNをインスタンス化し、ノード間の適応的滑らかさでグラフを処理する。
論文 参考訳(メタデータ) (2020-10-05T04:57:18Z) - Binarized Graph Neural Network [65.20589262811677]
我々は二項化グラフニューラルネットワークを開発し、二項化ネットワークパラメータを用いてノードのバイナリ表現を学習する。
提案手法は既存のGNNベースの埋め込み手法にシームレスに統合できる。
実験により、提案された二項化グラフニューラルネットワーク、すなわちBGNは、時間と空間の両方の観点から、桁違いに効率的であることが示されている。
論文 参考訳(メタデータ) (2020-04-19T09:43:14Z) - Graphs, Convolutions, and Neural Networks: From Graph Filters to Graph
Neural Networks [183.97265247061847]
我々はグラフ信号処理を活用してグラフニューラルネットワーク(GNN)の表現空間を特徴付ける。
GNNにおけるグラフ畳み込みフィルタの役割について議論し、そのようなフィルタで構築されたアーキテクチャは、置換同値の基本的な性質と位相変化に対する安定性を持つことを示す。
また,ロボット群に対するリコメンデータシステムや分散型コントローラの学習におけるGNNの利用について検討した。
論文 参考訳(メタデータ) (2020-03-08T13:02:15Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。