論文の概要: GCoDE: Efficient Device-Edge Co-Inference for GNNs via Architecture-Mapping Co-Search
- arxiv url: http://arxiv.org/abs/2512.11856v1
- Date: Fri, 05 Dec 2025 04:02:53 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-12-21 14:22:08.729953
- Title: GCoDE: Efficient Device-Edge Co-Inference for GNNs via Architecture-Mapping Co-Search
- Title(参考訳): GCoDE: アーキテクチャマッピングによるGNNの効率的なデバイスエッジコ推論
- Authors: Ao Zhou, Jianlei Yang, Tong Qiao, Yingjie Qi, Zhi Yang, Weisheng Zhao, Chunming Hu,
- Abstract要約: 我々は、GNNアーキテクチャをマッピングする最初のフレームワークであるGCoDEを提案し、Device-Edge階層上での協調設計とデプロイを行う。
デバイス通信プロセスを明示的な操作に抽象化することで、GCoDEはアーキテクチャとマッピングスキームを統一設計空間に融合させる。
GCoDEは、既存のアプローチと比較して44.9倍のスピードアップと98.2%のエネルギー削減を達成することができる。
- 参考スコア(独自算出の注目度): 21.83731989510524
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Graph Neural Networks (GNNs) have emerged as the state-of-the-art graph learning method. However, achieving efficient GNN inference on edge devices poses significant challenges, limiting their application in real-world edge scenarios. This is due to the high computational cost of GNNs and limited hardware resources on edge devices, which prevent GNN inference from meeting real-time and energy requirements. As an emerging paradigm, device-edge co-inference shows potential for improving inference efficiency and reducing energy consumption on edge devices. Despite its potential, research on GNN device-edge co-inference remains scarce, and our findings show that traditional model partitioning methods are ineffective for GNNs. To address this, we propose GCoDE, the first automatic framework for GNN architecture-mapping Co-design and deployment on Device-Edge hierarchies. By abstracting the device communication process into an explicit operation, GCoDE fuses the architecture and mapping scheme in a unified design space for joint optimization. Additionally, GCoDE's system performance awareness enables effective evaluation of architecture efficiency across diverse heterogeneous systems. By analyzing the energy consumption of various GNN operations, GCoDE introduces an energy prediction method that improves energy assessment accuracy and identifies energy-efficient solutions. Using a constraint-based random search strategy, GCoDE identifies the optimal solution in 1.5 hours, balancing accuracy and efficiency. Moreover, the integrated co-inference engine in GCoDE enables efficient deployment and execution of GNN co-inference. Experimental results show that GCoDE can achieve up to 44.9x speedup and 98.2% energy reduction compared to existing approaches across diverse applications and system configurations.
- Abstract(参考訳): グラフニューラルネットワーク(GNN)が最先端のグラフ学習手法として登場した。
しかし、エッジデバイス上で効率的なGNN推論を実現することは、現実のエッジシナリオにおけるアプリケーションを制限するという、大きな課題を生んでいる。
これは、GNNの計算コストが高く、エッジデバイス上でのハードウェアリソースの制限により、GNNの推論がリアルタイムおよびエネルギー要求を満たすことを防止するためである。
新たなパラダイムとして、デバイスエッジコ推論は、推論効率を改善し、エッジデバイスでのエネルギー消費を減らす可能性を示している。
その可能性にもかかわらず、GNNデバイスエッジコ推論の研究は依然として不十分であり、従来のモデル分割手法はGNNにとって効果がないことを示す。
そこで我々は,GNNアーキテクチャをマッピングする最初のフレームワークであるGCoDEを提案する。
デバイス通信プロセスを明示的な操作に抽象化することにより、GCoDEは統合設計空間におけるアーキテクチャとマッピングスキームを融合し、共同最適化を行う。
さらに、GCoDEのシステム性能認識は、多様な異種システムにおけるアーキテクチャ効率の効果的な評価を可能にする。
GCoDEは,様々なGNN操作のエネルギー消費を分析することにより,エネルギー評価精度を改善し,エネルギー効率の高い解を同定するエネルギー予測手法を提案する。
制約ベースのランダム検索戦略を用いて、GCoDEは1.5時間で最適解を識別し、精度と効率のバランスをとる。
さらに、GCoDEに統合されたコ推論エンジンにより、GNNコ推論の効率的なデプロイと実行が可能になる。
実験の結果、GCoDEは様々なアプリケーションやシステム構成にまたがる既存のアプローチと比較して44.9倍のスピードアップと98.2%のエネルギー削減を達成できることがわかった。
関連論文リスト
- FusionLLM: A Decentralized LLM Training System on Geo-distributed GPUs with Adaptive Compression [55.992528247880685]
分散トレーニングは、システム設計と効率に関する重要な課題に直面します。
大規模深層ニューラルネットワーク(DNN)のトレーニング用に設計・実装された分散トレーニングシステムFusionLLMを提案する。
本システムと手法は,収束性を確保しつつ,ベースライン法と比較して1.45~9.39倍の高速化を実現可能であることを示す。
論文 参考訳(メタデータ) (2024-10-16T16:13:19Z) - Enhancing Dropout-based Bayesian Neural Networks with Multi-Exit on FPGA [20.629635991749808]
本稿では,フィールドプログラマブルゲートアレイ(FPGA)ベースのアクセラレータを効率よく生成するアルゴリズムとハードウェアの共同設計フレームワークを提案する。
アルゴリズムレベルでは、計算とメモリのオーバーヘッドを低減した、新しいマルチエグジット・ドロップアウトベースのベイズNNを提案する。
ハードウェアレベルでは,提案する効率的なベイズNNのためのFPGAベースのアクセラレータを生成するための変換フレームワークを提案する。
論文 参考訳(メタデータ) (2024-06-20T17:08:42Z) - Graph Neural Networks Automated Design and Deployment on Device-Edge Co-Inference Systems [13.906304434381997]
グラフニューラルネットワーク(GNN)の最初の自動フレームワークであるGCoDEを紹介する。
GCoDEは、共同最適化のための統一された空間におけるアーキテクチャとオペレーションマッピングの探索を融合する。
GCoDEは、既存のアプローチと比較して最大44.9倍のスピードアップと980.2%のエネルギー削減を実現可能である。
論文 参考訳(メタデータ) (2024-04-08T15:25:25Z) - T-GAE: Transferable Graph Autoencoder for Network Alignment [79.89704126746204]
T-GAEはグラフオートエンコーダフレームワークで、GNNの転送性と安定性を活用して、再トレーニングなしに効率的なネットワークアライメントを実現する。
実験の結果、T-GAEは最先端の最適化手法と最高のGNN手法を最大38.7%、50.8%で上回っていることがわかった。
論文 参考訳(メタデータ) (2023-10-05T02:58:29Z) - DEGREE: Decomposition Based Explanation For Graph Neural Networks [55.38873296761104]
我々は,GNN予測に対する忠実な説明を提供するためにDGREEを提案する。
GNNの情報生成と集約機構を分解することにより、DECREEは入力グラフの特定のコンポーネントのコントリビューションを最終的な予測に追跡することができる。
また,従来の手法で見過ごされるグラフノード間の複雑な相互作用を明らかにするために,サブグラフレベルの解釈アルゴリズムを設計する。
論文 参考訳(メタデータ) (2023-05-22T10:29:52Z) - Evaluating Distribution System Reliability with Hyperstructures Graph
Convolutional Nets [74.51865676466056]
本稿では,グラフ畳み込みネットワークとハイパー構造表現学習フレームワークを,精度,信頼性,計算効率のよい分散グリッド計画に活用する方法を示す。
数値実験の結果,提案手法は計算効率を大幅に向上させることがわかった。
論文 参考訳(メタデータ) (2022-11-14T01:29:09Z) - GNN at the Edge: Cost-Efficient Graph Neural Network Processing over
Distributed Edge Servers [24.109721494781592]
グラフニューラルネットワーク(GNN)はまだ探索中であり、その広範な採用に対する大きな違いを示している。
本稿では,多層ヘテロジニアスエッジネットワーク上での分散GNN処理のコスト最適化について検討する。
提案手法は, 高速収束速度で95.8%以上のコスト削減を行い, デファクトベースラインよりも優れた性能が得られることを示す。
論文 参考訳(メタデータ) (2022-10-31T13:03:16Z) - Relation Embedding based Graph Neural Networks for Handling
Heterogeneous Graph [58.99478502486377]
我々は、同種GNNが不均一グラフを扱うのに十分な能力を持つように、シンプルで効率的なフレームワークを提案する。
具体的には、エッジ型関係と自己ループ接続の重要性を埋め込むために、関係1つのパラメータのみを使用する関係埋め込みベースのグラフニューラルネットワーク(RE-GNN)を提案する。
論文 参考訳(メタデータ) (2022-09-23T05:24:18Z) - Work in Progress: Mobile or FPGA? A Comprehensive Evaluation on Energy
Efficiency and a Unified Optimization Framework [38.128999867946156]
本稿では,FPGAベースおよびモバイルベースDeep Neural Networks(DNN)実行のエネルギー効率を質的かつ定量的に比較する。
論文 参考訳(メタデータ) (2021-06-16T22:38:04Z) - Optimizing Memory Efficiency of Graph NeuralNetworks on Edge Computing
Platforms [10.045922468883486]
グラフニューラルネットワーク(GNN)は、さまざまな産業タスクで最先端のパフォーマンスを達成しました。
GNN推論のメモリ効率最適化のための特徴分解手法を提案する。
提案されたアプローチは、さまざまなGNNモデルに対する優れた最適化を達成し、幅広いデータセットをカバーし、推論を最大3倍に高速化する。
論文 参考訳(メタデータ) (2021-04-07T11:15:12Z) - Energy-Aware DNN Graph Optimization [15.308980366876705]
本稿では,ディープニューラルネットワーク(DNN)グラフのエネルギー消費やエネルギーと推論性能のバランスを最適化する手法を提案する。
その結果,提案手法は24%の省エネ,すなわち無視可能な性能への影響を達成できることがわかった。
論文 参考訳(メタデータ) (2020-05-12T14:56:19Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。