論文の概要: GCN-ABFT: Low-Cost Online Error Checking for Graph Convolutional Networks
- arxiv url: http://arxiv.org/abs/2412.18534v1
- Date: Tue, 24 Dec 2024 16:27:19 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-12-25 15:53:50.627574
- Title: GCN-ABFT: Low-Cost Online Error Checking for Graph Convolutional Networks
- Title(参考訳): GCN-ABFT: グラフ畳み込みネットワークの低コストオンラインエラーチェック
- Authors: Christodoulos Peltekis, Giorgos Dimitrakopoulos,
- Abstract要約: グラフ畳み込みネットワーク(GCN)は、グラフ構造化データのための機械学習アプリケーションの構築に人気がある。
我々はGCNアクセラレーターにおける重要なアーキテクチャ上の課題に対処する:GCN計算におけるランダムなハードウェア故障に起因するエラーを最小コストで検出する方法。
- 参考スコア(独自算出の注目度): 0.0
- License:
- Abstract: Graph convolutional networks (GCNs) are popular for building machine-learning application for graph-structured data. This widespread adoption led to the development of specialized GCN hardware accelerators. In this work, we address a key architectural challenge for GCN accelerators: how to detect errors in GCN computations arising from random hardware faults with the least computation cost. Each GCN layer performs a graph convolution, mathematically equivalent to multiplying three matrices, computed through two separate matrix multiplications. Existing Algorithm-based Fault Tolerance(ABFT) techniques can check the results of individual matrix multiplications. However, for a GCN layer, this check should be performed twice. To avoid this overhead, this work introduces GCN-ABFT that directly calculates a checksum for the entire three-matrix product within a single GCN layer, providing a cost-effective approach for error detection in GCN accelerators. Experimental results demonstrate that GCN-ABFT reduces the number of operations needed for checksum computation by over 21% on average for representative GCN applications. These savings are achieved without sacrificing fault-detection accuracy, as evidenced by the presented fault-injection analysis.
- Abstract(参考訳): グラフ畳み込みネットワーク(GCN)は、グラフ構造化データのための機械学習アプリケーションの構築に人気がある。
この広く普及したことにより、特殊なGCNハードウェアアクセラレータの開発に繋がった。
本稿では、GCNアクセラレーターにおける重要なアーキテクチャ上の課題として、GCN計算におけるランダムなハードウェア故障に起因するエラーを最小の計算コストで検出する方法について述べる。
各GCN層はグラフ畳み込みを行い、数学的には3つの行列を乗算し、2つの別々の行列乗算によって計算する。
既存のアルゴリズムベースのフォールトトレランス(ABFT)技術は、個々の行列乗算の結果をチェックすることができる。
しかし、GCN層の場合、このチェックは2回実行されるべきである。
このオーバーヘッドを回避するために、この研究はGCN-ABFTを導入し、単一のGCN層内の3つの行列全体のチェックサムを直接計算し、GCNアクセラレーターのエラー検出にコスト効率の良いアプローチを提供する。
実験の結果,GCN-ABFTはGCNアプリケーションの平均21%以上でチェックサム計算に必要な演算数を削減できることがわかった。
これらの貯蓄は、提示された断層注入解析によって証明されたように、断層検出精度を犠牲にすることなく達成される。
関連論文リスト
- Beyond Graph Convolutional Network: An Interpretable
Regularizer-centered Optimization Framework [12.116373546916078]
グラフ畳み込みネットワーク(GCN)は、性能向上と強力な一般化により、広く注目を集めている。
本稿では,ほとんどのGCNを解釈可能な正規化器中心最適化フレームワークを提案する。
提案フレームワークでは,グラフデータからトポロジとセマンティック構造を捉えるために,二重正規化グラフ畳み込みネットワーク(dubed tsGCN)を考案した。
論文 参考訳(メタデータ) (2023-01-11T05:51:33Z) - Binary Graph Convolutional Network with Capacity Exploration [58.99478502486377]
ネットワークパラメータと入力ノード属性の両方を二項化するバイナリグラフ畳み込みネットワーク(Bi-GCN)を提案する。
我々のBi-GCNは、ネットワークパラメータと入力データの両方で平均31倍のメモリ消費を削減でき、推論速度を平均51倍に加速できる。
論文 参考訳(メタデータ) (2022-10-24T12:05:17Z) - H-GCN: A Graph Convolutional Network Accelerator on Versal ACAP
Architecture [13.149863422504332]
H-GCNはその固有の不均一性に基づいてグラフを3つの部分グラフに分割し、それぞれPLとAIEを使用して処理する。
最先端のGNNアクセラレータと比較して、H-GCNは平均して1.12.3Xのスピードアップを達成する。
論文 参考訳(メタデータ) (2022-06-28T03:37:31Z) - GCoD: Graph Convolutional Network Acceleration via Dedicated Algorithm
and Accelerator Co-Design [27.311994997480745]
グラフ畳み込みネットワーク(GCN)が最先端のグラフ学習モデルとして登場した。
大きなグラフデータセット上でGCNを推論することは、非常に難しい。
本稿では、前述のGCNの不規則性を大幅に軽減できるGCNアルゴリズムとGCoDと呼ばれる加速器協調設計フレームワークを提案する。
論文 参考訳(メタデータ) (2021-12-22T00:30:50Z) - Towards Efficient Graph Convolutional Networks for Point Cloud Handling [181.59146413326056]
ポイントクラウド上で学習するためのグラフ畳み込みネットワーク(GCN)の計算効率の向上を目指します。
一連の実験により、最適化されたネットワークは計算複雑性を減らし、メモリ消費を減らし、推論速度を加速した。
論文 参考訳(メタデータ) (2021-04-12T17:59:16Z) - Bi-GCN: Binary Graph Convolutional Network [57.733849700089955]
ネットワークパラメータと入力ノードの特徴を二項化するバイナリグラフ畳み込みネットワーク(Bi-GCN)を提案する。
我々のBi-GCNは、ネットワークパラメータと入力データの両方で平均30倍のメモリ消費を削減でき、推論速度を平均47倍に加速できる。
論文 参考訳(メタデータ) (2020-10-15T07:26:23Z) - Explainable, Stable, and Scalable Graph Convolutional Networks for
Learning Graph Representation [4.440174541397484]
このような問題を解決するためにグラフニューラルネットワーク(GNN)が提案されている。
本稿では,制約付き最適化問題に基づく新しい視点からこの問題に取り組む。
本稿では,これらの問題を解決するために,GCN(Convolutional Network)の特殊クラスに属する2つのアルゴリズムを提案する。
論文 参考訳(メタデータ) (2020-09-22T07:49:46Z) - Understanding and Resolving Performance Degradation in Graph
Convolutional Networks [105.14867349802898]
グラフ畳み込みネットワーク(GCN)は複数のレイヤを積み重ね、グラフ構造化データ上でノード表現を学習するためのPROPとTRANを実行する。
GCNはモデルが深くなるとパフォーマンスが低下する傾向がある。
本稿では,TRANやPROPのみを積み重ねることによるGCNの性能劣化について実験的に検討する。
論文 参考訳(メタデータ) (2020-06-12T12:12:12Z) - Graph Highway Networks [77.38665506495553]
グラフ畳み込みネットワーク(GCN)は、グラフ表現の有効性と効率性から、グラフ表現の学習に広く利用されている。
彼らは、多くの層が積み重ねられたとき、学習された表現が類似したベクトルに収束するという悪名高い過度に滑らかな問題に悩まされる。
本稿では,GCN学習プロセスにおける均一性と不均一性との間のトレードオフのバランスをとるため,ゲーティングユニットを利用したグラフハイウェイネットワークを提案する。
論文 参考訳(メタデータ) (2020-04-09T16:26:43Z) - Infinitely Wide Graph Convolutional Networks: Semi-supervised Learning
via Gaussian Processes [144.6048446370369]
グラフ畳み込みニューラルネットワーク(GCN)は近年,グラフに基づく半教師付き半教師付き分類において有望な結果を示した。
グラフに基づく半教師付き学習のためのGCN(GPGC)を用いたGP回帰モデルを提案する。
GPGCを評価するための広範囲な実験を行い、他の最先端手法よりも優れていることを示す。
論文 参考訳(メタデータ) (2020-02-26T10:02:32Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。