論文の概要: COIN: Communication-Aware In-Memory Acceleration for Graph Convolutional
Networks
- arxiv url: http://arxiv.org/abs/2205.07311v1
- Date: Sun, 15 May 2022 15:29:42 GMT
- ステータス: 処理完了
- システム内更新日: 2022-05-18 05:30:43.535774
- Title: COIN: Communication-Aware In-Memory Acceleration for Graph Convolutional
Networks
- Title(参考訳): COIN: グラフ畳み込みネットワークのための通信対応インメモリ高速化
- Authors: Sumit K. Mandal, Gokul Krishnan, A. Alper Goksoy, Gopikrishnan
Ravindran Nair, Yu Cao, Umit Y. Ogras
- Abstract要約: グラフ畳み込みネットワーク(GCN)は、グラフ構造化データを処理する際に顕著な学習能力を示す。
本稿では,GCNハードウェアアクセラレーションのための通信対応インメモリコンピューティングアーキテクチャ(COIN)を提案する。
- 参考スコア(独自算出の注目度): 2.620532065450903
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Graph convolutional networks (GCNs) have shown remarkable learning
capabilities when processing graph-structured data found inherently in many
application areas. GCNs distribute the outputs of neural networks embedded in
each vertex over multiple iterations to take advantage of the relations
captured by the underlying graphs. Consequently, they incur a significant
amount of computation and irregular communication overheads, which call for
GCN-specific hardware accelerators. To this end, this paper presents a
communication-aware in-memory computing architecture (COIN) for GCN hardware
acceleration. Besides accelerating the computation using custom compute
elements (CE) and in-memory computing, COIN aims at minimizing the intra- and
inter-CE communication in GCN operations to optimize the performance and energy
efficiency. Experimental evaluations with widely used datasets show up to 105x
improvement in energy consumption compared to state-of-the-art GCN accelerator.
- Abstract(参考訳): グラフ畳み込みネットワーク(GCN)は、多くのアプリケーション領域に固有のグラフ構造化データを処理する際、顕著な学習能力を示している。
gcnは各頂点に埋め込まれたニューラルネットワークの出力を複数のイテレーションで分散し、基礎となるグラフでキャプチャされた関係を利用する。
その結果、GCN固有のハードウェアアクセラレーターを呼んだ大量の計算と不規則な通信オーバーヘッドが発生する。
本稿では,GCNハードウェアアクセラレーションのための通信対応インメモリコンピューティングアーキテクチャ(COIN)を提案する。
COINは、カスタム計算要素(CE)とインメモリコンピューティングを使った計算の高速化に加えて、GCN操作におけるCE内通信とCE間通信の最小化を目標とし、性能とエネルギー効率を最適化する。
広く使われているデータセットによる実験的評価では、最先端のGCN加速器と比較してエネルギー消費が最大105倍改善している。
関連論文リスト
- Efficient Message Passing Architecture for GCN Training on HBM-based FPGAs with Orthogonal Topology On-Chip Networks [0.0]
グラフ畳み込みネットワーク(GCN)は、グラフ上の表現学習のための最先端のディープラーニングモデルである。
NUMAベースのメモリアクセス特性を利用したメッセージパッシングアーキテクチャを提案する。
また,提案アクセラレータ内でGCN特有のバックプロパゲーションアルゴリズムを再設計した。
論文 参考訳(メタデータ) (2024-11-06T12:00:51Z) - MassiveGNN: Efficient Training via Prefetching for Massively Connected Distributed Graphs [11.026326555186333]
本稿では,現在最先端のAmazon DistDGL分散GNNフレームワーク上に,パラメータ化された連続プリフェッチと消去方式を提案する。
NERSC(National Energy Research Scientific Computing Center)のPerlmutterスーパーコンピュータでは、エンドツーエンドのトレーニング性能が15~40%向上している。
論文 参考訳(メタデータ) (2024-10-30T05:10:38Z) - All-optical graph representation learning using integrated diffractive
photonic computing units [51.15389025760809]
フォトニックニューラルネットワークは、電子の代わりに光子を用いて脳にインスパイアされた計算を行う。
我々は、DGNN(diffractive graph neural network)と呼ばれる全光グラフ表現学習アーキテクチャを提案する。
ベンチマークデータベースを用いたノードおよびグラフレベルの分類タスクにおけるDGNN抽出機能の利用を実演し、優れた性能を実現する。
論文 参考訳(メタデータ) (2022-04-23T02:29:48Z) - SPA-GCN: Efficient and Flexible GCN Accelerator with an Application for
Graph Similarity Computation [7.54579279348595]
本稿では,グラフ上のグラフ畳み込みネットワーク(GCN)を高速化するための,SPA-GCNと呼ばれる柔軟なアーキテクチャを提案する。
SPA-GCNはマルチコアCPU実装やGPU実装と比較して高速に動作可能であることを示す。
論文 参考訳(メタデータ) (2021-11-10T20:47:57Z) - GNNIE: GNN Inference Engine with Load-balancing and Graph-Specific
Caching [2.654276707313136]
GNNIEは、幅広いグラフニューラルネットワーク(GNN)を実行するために設計されたアクセラレータである。
i)ノード特徴オペランドをブロックに分割し、 (ii) 再注文と再配布を行い、 (iii) 処理要素間の通信オーバーヘッドの少ない柔軟なMACアーキテクチャを使用する。
GNNIEは、CPU上の8890倍、グラフアテンションネットワーク(GAT)、グラフ畳み込みネットワーク(GCN)、GraphSAGE、GINConv、DiffPool上の複数のデータセット上のGPU上の295倍の平均スピードアップを達成する。
論文 参考訳(メタデータ) (2021-05-21T20:07:14Z) - DistGNN: Scalable Distributed Training for Large-Scale Graph Neural
Networks [58.48833325238537]
大規模グラフの構造を学ぶためにGNN(Graph Neural Networks)のフルバッチトレーニングは、実現可能な数百の計算ノードにスケールする必要がある重要な問題です。
本稿では,CPUクラスタ上でのフルバッチトレーニングのためのDGL(Deep Graph Library)を最適化したGNNについて述べる。
4つの一般的なGNNベンチマークデータセットの結果は、1つのCPUソケットを使用して最大3.7倍のスピードアップ、128のCPUソケットを使用して最大97倍のスピードアップを示す。
論文 参考訳(メタデータ) (2021-04-14T08:46:35Z) - Towards Efficient Graph Convolutional Networks for Point Cloud Handling [181.59146413326056]
ポイントクラウド上で学習するためのグラフ畳み込みネットワーク(GCN)の計算効率の向上を目指します。
一連の実験により、最適化されたネットワークは計算複雑性を減らし、メモリ消費を減らし、推論速度を加速した。
論文 参考訳(メタデータ) (2021-04-12T17:59:16Z) - ItNet: iterative neural networks with small graphs for accurate and
efficient anytime prediction [1.52292571922932]
本研究では,計算グラフの観点から,メモリフットプリントが小さいネットワークモデルについて紹介する。
CamVidおよびCityscapesデータセットでセマンティックセグメンテーションの最新の結果を示します。
論文 参考訳(メタデータ) (2021-01-21T15:56:29Z) - Fast Graph Attention Networks Using Effective Resistance Based Graph
Sparsification [70.50751397870972]
FastGATは、スペクトルスペーシフィケーションを用いて、注目に基づくGNNを軽量にし、入力グラフの最適プルーニングを生成する手法である。
我々は,ノード分類タスクのための大規模実世界のグラフデータセット上でFastGATを実験的に評価した。
論文 参考訳(メタデータ) (2020-06-15T22:07:54Z) - Graph Highway Networks [77.38665506495553]
グラフ畳み込みネットワーク(GCN)は、グラフ表現の有効性と効率性から、グラフ表現の学習に広く利用されている。
彼らは、多くの層が積み重ねられたとき、学習された表現が類似したベクトルに収束するという悪名高い過度に滑らかな問題に悩まされる。
本稿では,GCN学習プロセスにおける均一性と不均一性との間のトレードオフのバランスをとるため,ゲーティングユニットを利用したグラフハイウェイネットワークを提案する。
論文 参考訳(メタデータ) (2020-04-09T16:26:43Z) - Cross-GCN: Enhancing Graph Convolutional Network with $k$-Order Feature
Interactions [153.6357310444093]
Graph Convolutional Network(GCN)は,グラフデータの学習と推論を行う新興技術である。
我々は、GCNの既存の設計がクロスフィーチャをモデリングし、クロスフィーチャが重要であるタスクやデータに対してGCNの効率を損なうことを論じている。
我々は、任意の次交叉特徴を、特徴次元と順序サイズに線形に複雑にモデル化した、クロスフィーチャーグラフ畳み込みという新しい演算子を設計する。
論文 参考訳(メタデータ) (2020-03-05T13:05:27Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。