論文の概要: G-CoS: GNN-Accelerator Co-Search Towards Both Better Accuracy and
Efficiency
- arxiv url: http://arxiv.org/abs/2109.08983v1
- Date: Sat, 18 Sep 2021 18:36:04 GMT
- ステータス: 処理完了
- システム内更新日: 2021-09-21 16:45:07.105321
- Title: G-CoS: GNN-Accelerator Co-Search Towards Both Better Accuracy and
Efficiency
- Title(参考訳): G-CoS: GNN-Acceleratorの共同検索で精度と効率性の向上を目指す
- Authors: Yongan Zhang, Haoran You, Yonggan Fu, Tong Geng, Ang Li, Yingyan Lin
- Abstract要約: グラフニューラルネットワーク(GNN)は、グラフベースの学習タスクのための最先端(SOTA)メソッドとして登場した。
本稿では,GNN構造と加速器の自動検索を行うG-CoSを提案する。
G-CoSが生成したGNNは、タスク精度とハードウェア効率の両面で、SOTA GNNとGNNアクセラレータを一貫して上回っている。
- 参考スコア(独自算出の注目度): 28.379932311374624
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Graph Neural Networks (GNNs) have emerged as the state-of-the-art (SOTA)
method for graph-based learning tasks. However, it still remains prohibitively
challenging to inference GNNs over large graph datasets, limiting their
application to large-scale real-world tasks. While end-to-end jointly
optimizing GNNs and their accelerators is promising in boosting GNNs' inference
efficiency and expediting the design process, it is still underexplored due to
the vast and distinct design spaces of GNNs and their accelerators. In this
work, we propose G-CoS, a GNN and accelerator co-search framework that can
automatically search for matched GNN structures and accelerators to maximize
both task accuracy and acceleration efficiency. Specifically, GCoS integrates
two major enabling components: (1) a generic GNN accelerator search space which
is applicable to various GNN structures and (2) a one-shot GNN and accelerator
co-search algorithm that enables simultaneous and efficient search for optimal
GNN structures and their matched accelerators. To the best of our knowledge,
G-CoS is the first co-search framework for GNNs and their accelerators.
Extensive experiments and ablation studies show that the GNNs and accelerators
generated by G-CoS consistently outperform SOTA GNNs and GNN accelerators in
terms of both task accuracy and hardware efficiency, while only requiring a few
hours for the end-to-end generation of the best matched GNNs and their
accelerators.
- Abstract(参考訳): グラフニューラルネットワーク(GNN)は、グラフベースの学習タスクのための最先端(SOTA)メソッドとして登場した。
しかし、大規模なグラフデータセットに対してGNNを推論することは違法に困難であり、大規模な実世界のタスクに制限されている。
エンドツーエンドでGNNとそのアクセラレーターを最適化することは、GNNの推論効率の向上と設計プロセスの高速化を約束するが、GNNとそのアクセラレーターの広範かつ異なる設計空間のために、まだ未探索である。
本研究では,GNNと加速器の協調探索フレームワークであるG-CoSを提案する。
具体的には、(1)様々なGNN構造に適用可能な汎用的なGNNアクセラレータサーチスペース、(2)最適なGNN構造とその一致したアクセラレータの同時かつ効率的な探索を可能にするワンショットGNNとアクセラレータコサーチアルゴリズムである。
我々の知る限りでは、G-CoSはGNNとそのアクセラレーターのための最初の共同研究フレームワークである。
G-CoSが生成したGNNとアクセラレータは、タスク精度とハードウェア効率の両方において、SOTA GNNとGNNアクセラレータを一貫して上回り、最も適合したGNNとそのアクセラレータのエンドツーエンド生成には数時間しかかからない。
関連論文リスト
- Unleash Graph Neural Networks from Heavy Tuning [33.948899558876604]
グラフニューラルネットワーク(GNN)は、グラフ型データ用に設計されたディープラーニングアーキテクチャである。
本稿では,光チューニングされた粗い探索中に保存されたチェックポイントから学習することで,高性能なGNNを直接生成するグラフ条件付き潜時拡散フレームワーク(GNN-Diff)を提案する。
論文 参考訳(メタデータ) (2024-05-21T06:23:47Z) - MAG-GNN: Reinforcement Learning Boosted Graph Neural Network [68.60884768323739]
特定の研究の行は、GNNの表現性を向上させるためにサブグラフ情報を使用するサブグラフGNNを提案し、大きな成功を収めた。
このような効果は、すべての可能な部分グラフを列挙することによって、GNNの効率を犠牲にする。
本稿では,強化学習(RL)により強化されたGNNである磁気グラフニューラルネットワーク(MAG-GNN)を提案する。
論文 参考訳(メタデータ) (2023-10-29T20:32:21Z) - T-GAE: Transferable Graph Autoencoder for Network Alignment [79.89704126746204]
T-GAEはグラフオートエンコーダフレームワークで、GNNの転送性と安定性を活用して、再トレーニングなしに効率的なネットワークアライメントを実現する。
実験の結果、T-GAEは最先端の最適化手法と最高のGNN手法を最大38.7%、50.8%で上回っていることがわかった。
論文 参考訳(メタデータ) (2023-10-05T02:58:29Z) - GHOST: A Graph Neural Network Accelerator using Silicon Photonics [4.226093500082746]
グラフニューラルネットワーク(GNN)は、グラフ構造化データからモデリングと学習を行うための強力なアプローチとして登場した。
GHOSTは、GNNのための最初のシリコンフォトニックハードウェアアクセラレータである。
論文 参考訳(メタデータ) (2023-07-04T15:37:20Z) - A Survey on Graph Neural Network Acceleration: Algorithms, Systems, and
Customized Hardware [30.525912505620685]
グラフ構造化データに関する機械学習研究のために、グラフニューラルネットワーク(GNN)が登場している。
GNNは多くのタスクで最先端のパフォーマンスを実現するが、現実のアプリケーションではスケーラビリティの問題に直面している。
我々は,GNN加速の分類学を提供し,既存のアプローチをレビューし,今後の研究方向性を提案する。
論文 参考訳(メタデータ) (2023-06-24T20:20:45Z) - Distributed Graph Neural Network Training: A Survey [51.77035975191926]
グラフニューラルネットワーク(GNN)は、グラフに基づいてトレーニングされたディープラーニングモデルの一種で、さまざまな領域にうまく適用されている。
GNNの有効性にもかかわらず、GNNが大規模グラフに効率的にスケールすることは依然として困難である。
治療法として、分散コンピューティングは大規模GNNをトレーニングするための有望なソリューションとなる。
論文 参考訳(メタデータ) (2022-11-01T01:57:00Z) - GNN Transformation Framework for Improving Efficiency and Scalability [5.833671647960204]
本稿では,非スケーラブルGNNを,大規模グラフに対して効率的かつスケーラブルなプリ計算ベースGNNに自動変換するフレームワークを提案する。
フレームワークの利点は2つある: 1) グラフ畳み込みにおいて、局所的な特徴集約と重み学習を分離することにより、様々な非スケーリング可能なGNNを大規模グラフにうまくスケールさせる; 2) エッジを小さな解離と平衡集合に分解することで、大規模グラフに対するGPUの事前計算を効率的に行う。
論文 参考訳(メタデータ) (2022-07-25T09:19:59Z) - Optimization of Graph Neural Networks: Implicit Acceleration by Skip
Connections and More Depth [57.10183643449905]
グラフニューラルネットワーク(GNN)は表現力と一般化のレンズから研究されている。
GNNのダイナミクスを深部スキップ最適化により研究する。
本研究は,GNNの成功に対する最初の理論的支援を提供する。
論文 参考訳(メタデータ) (2021-05-10T17:59:01Z) - A Unified Lottery Ticket Hypothesis for Graph Neural Networks [82.31087406264437]
本稿では,グラフ隣接行列とモデルの重み付けを同時に行う統一GNNスペーシフィケーション(UGS)フレームワークを提案する。
グラフ宝くじ(GLT)をコアサブデータセットとスパースサブネットワークのペアとして定義することにより、人気のある宝くじチケット仮説を初めてGNNsにさらに一般化します。
論文 参考訳(メタデータ) (2021-02-12T21:52:43Z) - DNA: Differentiable Network-Accelerator Co-Search [36.68587348474986]
そこで我々は,一致したネットワークやアクセラレータを自動的に検索する,差別化可能なネットワーク加速器のコサーチフレームワークであるDNAを提案する。
1)DNNアクセラレータの汎用設計スペースと、アルゴリズム探索を可能にするPyTorchなどのDNNフレームワークとの互換性。
実験およびアブレーション研究により、DNAによって生成されたマッチングネットワークと加速器は、常に最先端(SOTA)のDNNや加速器より優れていることが示されている。
論文 参考訳(メタデータ) (2020-10-28T05:57:16Z) - Eigen-GNN: A Graph Structure Preserving Plug-in for GNNs [95.63153473559865]
グラフニューラルネットワーク(GNN)は、グラフ上の新たな機械学習モデルである。
既存のGNNモデルの多くは浅く、本質的に機能中心である。
我々は,既存の浅いGNNがグラフ構造をよく保存できないことを経験的かつ解析的に示す。
本稿では,グラフ構造保存におけるGNNの能力を高めるプラグインモジュールであるEigen-GNNを提案する。
論文 参考訳(メタデータ) (2020-06-08T02:47:38Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。