論文の概要: SPA-GCN: Efficient and Flexible GCN Accelerator with an Application for
Graph Similarity Computation
- arxiv url: http://arxiv.org/abs/2111.05936v1
- Date: Wed, 10 Nov 2021 20:47:57 GMT
- ステータス: 処理完了
- システム内更新日: 2021-11-12 15:31:24.836591
- Title: SPA-GCN: Efficient and Flexible GCN Accelerator with an Application for
Graph Similarity Computation
- Title(参考訳): SPA-GCN:グラフ類似性計算のための効率よく柔軟なGCN加速器
- Authors: Atefeh Sohrabizadeh, Yuze Chi, Jason Cong
- Abstract要約: 本稿では,グラフ上のグラフ畳み込みネットワーク(GCN)を高速化するための,SPA-GCNと呼ばれる柔軟なアーキテクチャを提案する。
SPA-GCNはマルチコアCPU実装やGPU実装と比較して高速に動作可能であることを示す。
- 参考スコア(独自算出の注目度): 7.54579279348595
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: While there have been many studies on hardware acceleration for deep learning
on images, there has been a rather limited focus on accelerating deep learning
applications involving graphs. The unique characteristics of graphs, such as
the irregular memory access and dynamic parallelism, impose several challenges
when the algorithm is mapped to a CPU or GPU. To address these challenges while
exploiting all the available sparsity, we propose a flexible architecture
called SPA-GCN for accelerating Graph Convolutional Networks (GCN), the core
computation unit in deep learning algorithms on graphs. The architecture is
specialized for dealing with many small graphs since the graph size has a
significant impact on design considerations. In this context, we use SimGNN, a
neural-network-based graph matching algorithm, as a case study to demonstrate
the effectiveness of our architecture. The experimental results demonstrate
that SPA-GCN can deliver a high speedup compared to a multi-core CPU
implementation and a GPU implementation, showing the efficiency of our design.
- Abstract(参考訳): 画像の深層学習のためのハードウェアアクセラレーションに関する研究は数多く行われているが、グラフを含む深層学習アプリケーションの高速化に焦点が当てられている。
不規則なメモリアクセスや動的並列性といったグラフのユニークな特徴は、アルゴリズムがcpuやgpuにマッピングされるときにいくつかの課題を課す。
これらの課題に対処するため,グラフ上のディープラーニングアルゴリズムのコア計算ユニットであるGraph Convolutional Networks (GCN) を高速化するための,SPA-GCNと呼ばれる柔軟なアーキテクチャを提案する。
アーキテクチャは、グラフのサイズが設計に重大な影響を与えるため、多くの小さなグラフを扱うために特化している。
この文脈では、ニューラルネットワークベースのグラフマッチングアルゴリズムであるSimGNNをケーススタディとして使用し、アーキテクチャの有効性を実証する。
実験により,SPA-GCNはマルチコアCPU実装やGPU実装と比較して高速に動作できることが示され,設計の効率性が示された。
関連論文リスト
- SPGNN: Recognizing Salient Subgraph Patterns via Enhanced Graph Convolution and Pooling [25.555741218526464]
グラフニューラルネットワーク(GNN)は、グラフやネットワークのような非ユークリッドデータ上での機械学習の分野に革命をもたらした。
本稿では,ノード表現をインジェクティブに更新する結合型グラフ畳み込み機構を提案する。
また,WL-SortPoolと呼ばれるグラフプーリングモジュールを設計し,重要なサブグラフパターンをディープラーニングで学習する。
論文 参考訳(メタデータ) (2024-04-21T13:11:59Z) - Graph Transformers for Large Graphs [57.19338459218758]
この研究は、モデルの特徴と重要な設計制約を識別することに焦点を当てた、単一の大規模グラフでの表現学習を前進させる。
この研究の重要な革新は、局所的な注意機構と組み合わされた高速な近傍サンプリング技術の作成である。
ogbn-products と snap-patents の3倍の高速化と16.8%の性能向上を報告し、ogbn-100M で LargeGT を5.9% の性能改善で拡張した。
論文 参考訳(メタデータ) (2023-12-18T11:19:23Z) - Architectural Implications of Embedding Dimension during GCN on CPU and
GPU [6.650945912906685]
グラフ畳み込みネットワーク(GCNs)は、グラフ学習問題に広く用いられているGNNの一種である。
GCNは、固有のスパーシリティ、低いデータ再利用、大規模なメモリ容量要求のため、アーキテクチャの観点からは難しいアルゴリズムである。
論文 参考訳(メタデータ) (2022-12-01T19:23:12Z) - A Comprehensive Study on Large-Scale Graph Training: Benchmarking and
Rethinking [124.21408098724551]
グラフニューラルネットワーク(GNN)の大規模グラフトレーニングは、非常に難しい問題である
本稿では,既存の問題に対処するため,EnGCNという新たなアンサンブルトレーニング手法を提案する。
提案手法は,大規模データセット上でのSOTA(State-of-the-art)の性能向上を実現している。
論文 参考訳(メタデータ) (2022-10-14T03:43:05Z) - GraphPAS: Parallel Architecture Search for Graph Neural Networks [12.860313120881996]
グラフニューラルネットワークのための並列グラフアーキテクチャ探索(GraphPAS)フレームワークを提案する。
GraphPASでは、共有ベースの進化学習を設計することで、検索空間を並列に探索する。
実験結果から,GraphPASは最先端モデルの効率と精度を同時に向上することが示された。
論文 参考訳(メタデータ) (2021-12-07T02:55:24Z) - Increase and Conquer: Training Graph Neural Networks on Growing Graphs [116.03137405192356]
本稿では,このグラフからBernoulliをサンプリングしたグラフ上でGNNをトレーニングすることで,WNN(Graphon Neural Network)を学習する問題を考察する。
これらの結果から着想を得た大規模グラフ上でGNNを学習するアルゴリズムを提案する。
論文 参考訳(メタデータ) (2021-06-07T15:05:59Z) - Binary Graph Neural Networks [69.51765073772226]
グラフニューラルネットワーク(gnns)は、不規則データに対する表現学習のための強力で柔軟なフレームワークとして登場した。
本稿では,グラフニューラルネットワークのバイナライゼーションのための異なる戦略を提示し,評価する。
モデルの慎重な設計とトレーニングプロセスの制御によって、バイナリグラフニューラルネットワークは、挑戦的なベンチマークの精度において、適度なコストでトレーニングできることを示しています。
論文 参考訳(メタデータ) (2020-12-31T18:48:58Z) - Fast Graph Attention Networks Using Effective Resistance Based Graph
Sparsification [70.50751397870972]
FastGATは、スペクトルスペーシフィケーションを用いて、注目に基づくGNNを軽量にし、入力グラフの最適プルーニングを生成する手法である。
我々は,ノード分類タスクのための大規模実世界のグラフデータセット上でFastGATを実験的に評価した。
論文 参考訳(メタデータ) (2020-06-15T22:07:54Z) - SIGN: Scalable Inception Graph Neural Networks [4.5158585619109495]
本稿では,グラフサンプリングの必要性を助長する,効率的でスケーラブルなグラフ深層学習アーキテクチャを提案する。
私たちのアーキテクチャでは、異なるローカルグラフ演算子を使用して、そのタスクに最も適しています。
我々は,1億1000万のノードと15億のエッジを持つ,最大の公開グラフデータセットであるogbn-papers100Mについて,最先端の結果を得た。
論文 参考訳(メタデータ) (2020-04-23T14:46:10Z) - Geometrically Principled Connections in Graph Neural Networks [66.51286736506658]
我々は、幾何学的深層学習の新興分野におけるイノベーションの原動力は、幾何が依然として主要な推進力であるべきだと論じている。
グラフニューラルネットワークとコンピュータグラフィックスとデータ近似モデルとの関係:放射基底関数(RBF)
完全連結層とグラフ畳み込み演算子を組み合わせた新しいビルディングブロックであるアフィンスキップ接続を導入する。
論文 参考訳(メタデータ) (2020-04-06T13:25:46Z) - GraphACT: Accelerating GCN Training on CPU-FPGA Heterogeneous Platforms [1.2183405753834562]
グラフ畳み込みネットワーク(GCN)は、グラフ上での表現学習のための最先端のディープラーニングモデルとして登場した。
実質的かつ不規則なデータ通信のため、GCNの訓練を加速することは困難である。
我々はCPU-FPGAヘテロジニアスシステム上でGCNをトレーニングするための新しいアクセラレータを設計する。
論文 参考訳(メタデータ) (2019-12-31T21:19:01Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。