論文の概要: An Uncoupled Training Architecture for Large Graph Learning
- arxiv url: http://arxiv.org/abs/2003.09638v2
- Date: Wed, 22 Jul 2020 03:32:29 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-21 12:39:58.346475
- Title: An Uncoupled Training Architecture for Large Graph Learning
- Title(参考訳): 大規模グラフ学習のための非結合学習アーキテクチャ
- Authors: Dalong Yang, Chuan Chen, Youhao Zheng, Zibin Zheng, Shih-wei Liao
- Abstract要約: グラフデータをグリッドライクなデータに埋め込むための、柔軟なアンカップリングトレーニングフレームワークであるNode2Gridsを紹介します。
各ノードの影響を次々にランク付けすることで、Node2Gridsは最も影響力のある1階と、中央ノードの融合情報を持つ2階の隣人を選択する。
下流タスクの効率をさらに向上するために、単純なCNNベースのニューラルネットワークを使用して、マッピングされたグリッドのようなデータから重要な情報をキャプチャする。
- 参考スコア(独自算出の注目度): 20.784230322205232
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Graph Convolutional Network (GCN) has been widely used in graph learning
tasks. However, GCN-based models (GCNs) is an inherently coupled training
framework repetitively conducting the complex neighboring aggregation, which
leads to the limitation of flexibility in processing large-scale graph. With
the depth of layers increases, the computational and memory cost of GCNs grow
explosively due to the recursive neighborhood expansion. To tackle these
issues, we present Node2Grids, a flexible uncoupled training framework that
leverages the independent mapped data for obtaining the embedding. Instead of
directly processing the coupled nodes as GCNs, Node2Grids supports a more
efficacious method in practice, mapping the coupled graph data into the
independent grid-like data which can be fed into the efficient Convolutional
Neural Network (CNN). This simple but valid strategy significantly saves memory
and computational resource while achieving comparable results with the leading
GCN-based models. Specifically, by ranking each node's influence through
degree, Node2Grids selects the most influential first-order as well as
second-order neighbors with central node fusion information to construct the
grid-like data. For further improving the efficiency of downstream tasks, a
simple CNN-based neural network is employed to capture the significant
information from the mapped grid-like data. Moreover, the grid-level attention
mechanism is implemented, which enables implicitly specifying the different
weights for neighboring nodes with different influences. In addition to the
typical transductive and inductive learning tasks, we also verify our framework
on million-scale graphs to demonstrate the superiority of the proposed
Node2Grids model against the state-of-the-art GCN-based approaches.
- Abstract(参考訳): グラフ畳み込みネットワーク(GCN)は、グラフ学習タスクで広く使われている。
しかし、GCNベースのモデル(GCN)は、大規模グラフ処理における柔軟性の制限につながる複雑な隣り合うアグリゲーションを反復的に実施する、本質的に結合したトレーニングフレームワークである。
層深の増大に伴い、再帰的近傍拡大によりGCNの計算・記憶コストは爆発的に増大する。
これらの問題に対処するために、我々は、組み込みを取得するために独立したマッピングデータを利用する柔軟な非結合トレーニングフレームワークであるnode2gridsを提案する。
結合ノードをGCNとして直接処理する代わりに、Node2Gridsはより効率的な方法をサポートし、結合されたグラフデータを独立したグリッドのようなデータにマッピングし、効率的な畳み込みニューラルネットワーク(CNN)に入力することができる。
この単純だが有効な戦略はメモリと計算資源を大幅に節約し、主要なgcnベースのモデルと同等の結果を得る。
特に、各ノードの影響力を次数でランク付けすることで、node2gridsは最も影響力のある一階と、中央ノードの融合情報を持つ二階の隣接を選択し、グリッドライクなデータを構築する。
ダウンストリームタスクの効率をさらに向上するために、マッピングされたグリッドライクなデータから重要な情報をキャプチャするために、単純なcnnベースのニューラルネットワークが使用される。
さらに、グリッドレベルの注意機構を実装し、異なる影響を持つ隣ノードの異なる重み付けを暗黙的に指定できる。
典型的なトランスダクティブおよびインダクティブ学習タスクに加えて,提案したNode2Gridsモデルの最先端GCNベースのアプローチに対する優位性を示すために,100万規模のグラフ上でのフレームワークを検証する。
関連論文リスト
- Graph Convolutional Network For Semi-supervised Node Classification With Subgraph Sketching [0.27624021966289597]
本稿では,GLDGCNと呼ばれるグラフ学習型グラフ畳み込みニューラルネットワークを提案する。
半教師付きノード分類タスクにGLDGCNを適用する。
ベースライン手法と比較して,3つの引用ネットワークの分類精度が向上する。
論文 参考訳(メタデータ) (2024-04-19T09:08:12Z) - Self-Attention Empowered Graph Convolutional Network for Structure
Learning and Node Embedding [5.164875580197953]
グラフ構造化データの表現学習では、多くの人気のあるグラフニューラルネットワーク(GNN)が長距離依存をキャプチャできない。
本稿では,自己注意型グラフ畳み込みネットワーク(GCN-SA)と呼ばれる新しいグラフ学習フレームワークを提案する。
提案手法はノードレベルの表現学習において例外的な一般化能力を示す。
論文 参考訳(メタデータ) (2024-03-06T05:00:31Z) - Degree-based stratification of nodes in Graph Neural Networks [66.17149106033126]
グラフニューラルネットワーク(GNN)アーキテクチャを変更して,各グループのノードに対して,重み行列を個別に学習する。
このシンプルな実装変更により、データセットとGNNメソッドのパフォーマンスが改善されているようだ。
論文 参考訳(メタデータ) (2023-12-16T14:09:23Z) - Neighborhood Convolutional Network: A New Paradigm of Graph Neural
Networks for Node Classification [12.062421384484812]
グラフ畳み込みネットワーク(GCN)は、各畳み込み層における近傍の集約と特徴変換を分離する。
本稿では,周辺畳み込みネットワーク(NCN)と呼ばれるGCNの新しいパラダイムを提案する。
このようにして、モデルは、近隣情報を集約するための分離GCNの利点を継承すると同時に、より強力な特徴学習モジュールを開発することができる。
論文 参考訳(メタデータ) (2022-11-15T02:02:51Z) - Training Graph Neural Networks on Growing Stochastic Graphs [114.75710379125412]
グラフニューラルネットワーク(GNN)は、ネットワーク化されたデータの意味のあるパターンを活用するために、グラフ畳み込みに依存している。
我々は,成長するグラフ列の極限オブジェクトであるグラフオンを利用して,非常に大きなグラフ上のGNNを学習することを提案する。
論文 参考訳(メタデータ) (2022-10-27T16:00:45Z) - SLGCN: Structure Learning Graph Convolutional Networks for Graphs under
Heterophily [5.619890178124606]
本稿では2つの側面から問題を緩和する構造学習グラフ畳み込みネットワーク(SLGCN)を提案する。
具体的には、全ての類似ノードから特徴表現を効率的に集約するために、アンカーを用いた効率的なスペクトルクラスタリング(ESC-ANCH)を設計する。
幅広いベンチマークデータセットの実験結果は、提案されたSLGCNが、最先端のGNNよりも優れていることを示している。
論文 参考訳(メタデータ) (2021-05-28T13:00:38Z) - A Unified Lottery Ticket Hypothesis for Graph Neural Networks [82.31087406264437]
本稿では,グラフ隣接行列とモデルの重み付けを同時に行う統一GNNスペーシフィケーション(UGS)フレームワークを提案する。
グラフ宝くじ(GLT)をコアサブデータセットとスパースサブネットワークのペアとして定義することにより、人気のある宝くじチケット仮説を初めてGNNsにさらに一般化します。
論文 参考訳(メタデータ) (2021-02-12T21:52:43Z) - Hierarchical Message-Passing Graph Neural Networks [12.207978823927386]
本稿では,新しい階層型メッセージパッシンググラフニューラルネットワークフレームワークを提案する。
鍵となるアイデアは、フラットグラフ内のすべてのノードをマルチレベルなスーパーグラフに再編成する階層構造を生成することである。
階層型コミュニティ対応グラフニューラルネットワーク(HC-GNN)と呼ばれる,このフレームワークを実装した最初のモデルを提案する。
論文 参考訳(メタデータ) (2020-09-08T13:11:07Z) - Binarized Graph Neural Network [65.20589262811677]
我々は二項化グラフニューラルネットワークを開発し、二項化ネットワークパラメータを用いてノードのバイナリ表現を学習する。
提案手法は既存のGNNベースの埋め込み手法にシームレスに統合できる。
実験により、提案された二項化グラフニューラルネットワーク、すなわちBGNは、時間と空間の両方の観点から、桁違いに効率的であることが示されている。
論文 参考訳(メタデータ) (2020-04-19T09:43:14Z) - Graph Highway Networks [77.38665506495553]
グラフ畳み込みネットワーク(GCN)は、グラフ表現の有効性と効率性から、グラフ表現の学習に広く利用されている。
彼らは、多くの層が積み重ねられたとき、学習された表現が類似したベクトルに収束するという悪名高い過度に滑らかな問題に悩まされる。
本稿では,GCN学習プロセスにおける均一性と不均一性との間のトレードオフのバランスをとるため,ゲーティングユニットを利用したグラフハイウェイネットワークを提案する。
論文 参考訳(メタデータ) (2020-04-09T16:26:43Z) - Graphs, Convolutions, and Neural Networks: From Graph Filters to Graph
Neural Networks [183.97265247061847]
我々はグラフ信号処理を活用してグラフニューラルネットワーク(GNN)の表現空間を特徴付ける。
GNNにおけるグラフ畳み込みフィルタの役割について議論し、そのようなフィルタで構築されたアーキテクチャは、置換同値の基本的な性質と位相変化に対する安定性を持つことを示す。
また,ロボット群に対するリコメンデータシステムや分散型コントローラの学習におけるGNNの利用について検討した。
論文 参考訳(メタデータ) (2020-03-08T13:02:15Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。