論文の概要: GHOST: A Graph Neural Network Accelerator using Silicon Photonics
- arxiv url: http://arxiv.org/abs/2307.01782v1
- Date: Tue, 4 Jul 2023 15:37:20 GMT
- ステータス: 処理完了
- システム内更新日: 2023-07-06 16:40:29.123317
- Title: GHOST: A Graph Neural Network Accelerator using Silicon Photonics
- Title(参考訳): GHOST:シリコンフォトニクスを用いたグラフニューラルネットワーク加速器
- Authors: Salma Afifi, Febin Sunny, Amin Shafiee, Mahdi Nikdast, Sudeep Pasricha
- Abstract要約: グラフニューラルネットワーク(GNN)は、グラフ構造化データからモデリングと学習を行うための強力なアプローチとして登場した。
GHOSTは、GNNのための最初のシリコンフォトニックハードウェアアクセラレータである。
- 参考スコア(独自算出の注目度): 4.226093500082746
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Graph neural networks (GNNs) have emerged as a powerful approach for
modelling and learning from graph-structured data. Multiple fields have since
benefitted enormously from the capabilities of GNNs, such as recommendation
systems, social network analysis, drug discovery, and robotics. However,
accelerating and efficiently processing GNNs require a unique approach that
goes beyond conventional artificial neural network accelerators, due to the
substantial computational and memory requirements of GNNs. The slowdown of
scaling in CMOS platforms also motivates a search for alternative
implementation substrates. In this paper, we present GHOST, the first
silicon-photonic hardware accelerator for GNNs. GHOST efficiently alleviates
the costs associated with both vertex-centric and edge-centric operations. It
implements separately the three main stages involved in running GNNs in the
optical domain, allowing it to be used for the inference of various widely used
GNN models and architectures, such as graph convolution networks and graph
attention networks. Our simulation studies indicate that GHOST exhibits at
least 10.2x better throughput and 3.8x better energy efficiency when compared
to GPU, TPU, CPU and multiple state-of-the-art GNN hardware accelerators.
- Abstract(参考訳): グラフニューラルネットワーク(GNN)は、グラフ構造化データからモデリングと学習を行うための強力なアプローチとして登場した。
その後、複数の分野は、レコメンデーションシステム、ソーシャルネットワーク分析、薬物発見、ロボット工学などのGNNの能力から大きな恩恵を受けている。
しかしながら、GNNの大幅な計算とメモリ要求のため、GNNの高速化と効率的な処理には、従来のニューラルネットワークアクセラレータを超えるユニークなアプローチが必要である。
CMOSプラットフォームのスケーリングのスローダウンは、代替実装基板の探索を動機付けている。
本稿では、gnnのための最初のシリコンフォトニックハードウェアアクセラレータであるghostについて述べる。
GHOSTは、頂点中心とエッジ中心の両方の操作に関連するコストを効率的に軽減する。
光学領域におけるGNNの実行に関わる3つの主要なステージを別々に実装し、グラフ畳み込みネットワークやグラフアテンションネットワークなど、広く使われているGNNモデルやアーキテクチャの推論に使用することができる。
我々のシミュレーション研究は、GHOSTがGPU、TPU、CPUおよび複数の最先端GNNハードウェアアクセラレータと比較して、少なくとも10.2倍のスループットと3.8倍のエネルギー効率を示すことを示している。
関連論文リスト
- HGNAS: Hardware-Aware Graph Neural Architecture Search for Edge Devices [11.1990060370675]
本研究は,リソース制約エッジデバイス,すなわちHGNASに適した,ハードウェア対応の新たなグラフニューラルネットワーク探索フレームワークを提案する。
HGNASは効率的なGNNハードウェア性能予測器を統合し、ミリ秒でGNNのレイテンシとピークメモリ使用率を評価する。
ModelNet40のDGCNNと比較して、最大10.6倍のスピードアップと82.5%のピークメモリ削減を実現している。
論文 参考訳(メタデータ) (2024-08-23T05:11:22Z) - Spatio-Spectral Graph Neural Networks [50.277959544420455]
比スペクトルグラフネットワーク(S$2$GNN)を提案する。
S$2$GNNは空間的およびスペクトル的にパラメータ化されたグラフフィルタを組み合わせる。
S$2$GNNsは、MPGNNsよりも厳密な近似理論誤差境界を生じる。
論文 参考訳(メタデータ) (2024-05-29T14:28:08Z) - MaGNAS: A Mapping-Aware Graph Neural Architecture Search Framework for
Heterogeneous MPSoC Deployment [8.29394286023338]
ヘテロジニアスMPSoCプラットフォーム上でのビジョンGNNワークロードの効率的な処理を実現するための新しい設計マッピング手法を提案する。
MaGNASは、2階層の進化的探索を用いて最適なGNNを特定し、最高のパフォーマンストレードオフをもたらすペアリングをマッピングする。
我々の実験結果によると、MaGNASは1.57倍のレイテンシ速度を提供でき、Xavier MPSoCで実行される複数のビジョンデータセットとGPUのみのデプロイメントでは3.38倍エネルギー効率が向上している。
論文 参考訳(メタデータ) (2023-07-16T14:56:50Z) - Hardware/Software Co-Programmable Framework for Computational SSDs to
Accelerate Deep Learning Service on Large-Scale Graphs [8.698995648930806]
グラフニューラルネットワーク(GNN)は、100億のエッジからなる大規模グラフを処理する。
高速でエネルギー効率のよいGNN処理のための,使い易く,ほぼ保存可能な推論基盤を提供する,大規模グラフの新たなディープラーニングフレームワークであるHolisticGNNを提案する。
論文 参考訳(メタデータ) (2022-01-23T06:08:18Z) - GNNIE: GNN Inference Engine with Load-balancing and Graph-Specific
Caching [2.654276707313136]
GNNIEは、幅広いグラフニューラルネットワーク(GNN)を実行するために設計されたアクセラレータである。
i)ノード特徴オペランドをブロックに分割し、 (ii) 再注文と再配布を行い、 (iii) 処理要素間の通信オーバーヘッドの少ない柔軟なMACアーキテクチャを使用する。
GNNIEは、CPU上の8890倍、グラフアテンションネットワーク(GAT)、グラフ畳み込みネットワーク(GCN)、GraphSAGE、GINConv、DiffPool上の複数のデータセット上のGPU上の295倍の平均スピードアップを達成する。
論文 参考訳(メタデータ) (2021-05-21T20:07:14Z) - A Unified Lottery Ticket Hypothesis for Graph Neural Networks [82.31087406264437]
本稿では,グラフ隣接行列とモデルの重み付けを同時に行う統一GNNスペーシフィケーション(UGS)フレームワークを提案する。
グラフ宝くじ(GLT)をコアサブデータセットとスパースサブネットワークのペアとして定義することにより、人気のある宝くじチケット仮説を初めてGNNsにさらに一般化します。
論文 参考訳(メタデータ) (2021-02-12T21:52:43Z) - Binary Graph Neural Networks [69.51765073772226]
グラフニューラルネットワーク(gnns)は、不規則データに対する表現学習のための強力で柔軟なフレームワークとして登場した。
本稿では,グラフニューラルネットワークのバイナライゼーションのための異なる戦略を提示し,評価する。
モデルの慎重な設計とトレーニングプロセスの制御によって、バイナリグラフニューラルネットワークは、挑戦的なベンチマークの精度において、適度なコストでトレーニングできることを示しています。
論文 参考訳(メタデータ) (2020-12-31T18:48:58Z) - Computing Graph Neural Networks: A Survey from Algorithms to
Accelerators [2.491032752533246]
グラフニューラルネットワーク(GNN)は、グラフ構造化データからモデル化および学習する能力のため、近年、機械学習の現場で爆発的に普及している。
本稿では,GNNの分野をコンピュータの観点から概観する。
現在のソフトウェアとハードウェアアクセラレーションスキームの詳細な分析を行う。
論文 参考訳(メタデータ) (2020-09-30T22:29:27Z) - Optimizing Memory Placement using Evolutionary Graph Reinforcement
Learning [56.83172249278467]
大規模検索空間を対象とした進化グラフ強化学習(EGRL)を提案する。
我々は、推論のために、Intel NNP-Iチップ上で、我々のアプローチを直接訓練し、検証する。
また,NNP-Iコンパイラと比較して28~78%の高速化を実現している。
論文 参考訳(メタデータ) (2020-07-14T18:50:12Z) - GPT-GNN: Generative Pre-Training of Graph Neural Networks [93.35945182085948]
グラフニューラルネットワーク(GNN)は、グラフ構造化データのモデリングにおいて強力であることが示されている。
生成事前学習によりGNNを初期化するためのGPT-GNNフレームワークを提案する。
GPT-GNNは、様々な下流タスクにおいて、事前トレーニングを最大9.1%行うことなく、最先端のGNNモデルを大幅に上回ることを示す。
論文 参考訳(メタデータ) (2020-06-27T20:12:33Z) - Eigen-GNN: A Graph Structure Preserving Plug-in for GNNs [95.63153473559865]
グラフニューラルネットワーク(GNN)は、グラフ上の新たな機械学習モデルである。
既存のGNNモデルの多くは浅く、本質的に機能中心である。
我々は,既存の浅いGNNがグラフ構造をよく保存できないことを経験的かつ解析的に示す。
本稿では,グラフ構造保存におけるGNNの能力を高めるプラグインモジュールであるEigen-GNNを提案する。
論文 参考訳(メタデータ) (2020-06-08T02:47:38Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。