論文の概要: FARe: Fault-Aware GNN Training on ReRAM-based PIM Accelerators
- arxiv url: http://arxiv.org/abs/2401.10522v1
- Date: Fri, 19 Jan 2024 06:56:09 GMT
- ステータス: 処理完了
- システム内更新日: 2024-01-22 16:44:47.559732
- Title: FARe: Fault-Aware GNN Training on ReRAM-based PIM Accelerators
- Title(参考訳): FARe: ReRAMベースのPIM加速器の故障認識GNNトレーニング
- Authors: Pratyush Dhingra, Chukwufumnanya Ogbogu, Biresh Kumar Joardar,
Janardhan Rao Doppa, Ananth Kalyanaraman, Partha Pratim Pande
- Abstract要約: 本稿では,GNN トレーニングにおける障害の影響を緩和する FARe と呼ばれるフォールトアウェアフレームワークを提案する。
FAReは、故障のないReRAMハードウェアでGNNテストの精度を47.6%向上させ、障害のないハードウェアに比べて1%の時間オーバーヘッドで復元可能であることを示す。
- 参考スコア(独自算出の注目度): 17.362405869085123
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Resistive random-access memory (ReRAM)-based processing-in-memory (PIM)
architecture is an attractive solution for training Graph Neural Networks
(GNNs) on edge platforms. However, the immature fabrication process and limited
write endurance of ReRAMs make them prone to hardware faults, thereby limiting
their widespread adoption for GNN training. Further, the existing
fault-tolerant solutions prove inadequate for effectively training GNNs in the
presence of faults. In this paper, we propose a fault-aware framework referred
to as FARe that mitigates the effect of faults during GNN training. FARe
outperforms existing approaches in terms of both accuracy and timing overhead.
Experimental results demonstrate that FARe framework can restore GNN test
accuracy by 47.6% on faulty ReRAM hardware with a ~1% timing overhead compared
to the fault-free counterpart.
- Abstract(参考訳): 抵抗的ランダムアクセスメモリ(ReRAM)ベースの処理インメモリ(PIM)アーキテクチャは、エッジプラットフォーム上でグラフニューラルネットワーク(GNN)をトレーニングするための魅力的なソリューションである。
しかし、未熟な製造プロセスとReRAMの書き込み持続性に制限があるため、ハードウェアの欠陥が原因でGNNトレーニングへの採用が制限される。
さらに、既存のフォールトトレラントソリューションは、フォールトの存在下でGNNを効果的に訓練するには不十分である。
本稿では,GNN トレーニングにおける障害の影響を緩和する FARe と呼ばれるフォールト・アウェア・フレームワークを提案する。
FAReは、精度とタイミングのオーバーヘッドの両方の観点から、既存のアプローチより優れている。
実験の結果、FAReフレームワークは障害のないReRAMハードウェアでGNNテストの精度を47.6%向上できることがわかった。
関連論文リスト
- DFA-GNN: Forward Learning of Graph Neural Networks by Direct Feedback Alignment [57.62885438406724]
グラフニューラルネットワークは、様々なアプリケーションにまたがる強力なパフォーマンスで認識されている。
BPには、その生物学的妥当性に挑戦する制限があり、グラフベースのタスクのためのトレーニングニューラルネットワークの効率、スケーラビリティ、並列性に影響を与える。
半教師付き学習のケーススタディを用いて,GNNに適した新しい前方学習フレームワークであるDFA-GNNを提案する。
論文 参考訳(メタデータ) (2024-06-04T07:24:51Z) - ELEGANT: Certified Defense on the Fairness of Graph Neural Networks [94.10433608311604]
グラフニューラルネットワーク(GNN)は,グラフベースのタスクにおいて,目立ったグラフ学習モデルとして登場した。
悪意のある攻撃者は、入力グラフデータに摂動を追加することで、予測の公平度を容易に損なうことができる。
本稿では, ELEGANT というフレームワークを提案し, GNN の公正度レベルにおける認証防御の新たな課題について検討する。
論文 参考訳(メタデータ) (2023-11-05T20:29:40Z) - FRGNN: Mitigating the Impact of Distribution Shift on Graph Neural
Networks via Test-Time Feature Reconstruction [13.21683198528012]
分散シフトはグラフニューラルネットワーク(GNN)のテスト性能に悪影響を及ぼす可能性がある
特徴再構成を行うための汎用フレームワークFR-GNNを提案する。
特に、再構成されたノード機能は、よく訓練されたモデルをテストするために直接利用することができる。
論文 参考訳(メタデータ) (2023-08-18T02:34:37Z) - FAQ: Mitigating the Impact of Faults in the Weight Memory of DNN
Accelerators through Fault-Aware Quantization [15.344503991760275]
ディープニューラルネットワーク(DNN)加速器の永久欠陥は、チップ製造プロセスの製造収量に悪影響を及ぼす。
フォールト・アウェア・量子化(FAQ)法による永久断層効果の緩和
FAQは無視可能なオーバーヘッド、すなわち再トレーニングの1エポックの実行に必要な時間の5%以下を発生させる。
論文 参考訳(メタデータ) (2023-05-21T23:01:13Z) - Decouple Graph Neural Networks: Train Multiple Simple GNNs Simultaneously Instead of One [60.5818387068983]
グラフニューラルネットワーク(GNN)は、深刻な非効率性に悩まされている。
我々は,より効率的なトレーニングを行うために,多層GNNを複数の単純なモジュールとして分離することを提案する。
提案するフレームワークは,合理的な性能で高い効率性を示す。
論文 参考訳(メタデータ) (2023-04-20T07:21:32Z) - RescueSNN: Enabling Reliable Executions on Spiking Neural Network
Accelerators under Permanent Faults [15.115813664357436]
RescueSNNはSNNチップの計算エンジンにおける永久欠陥を軽減する新しい手法である。
RescueSNNは、高い故障率で25%未満のスループットの削減を維持しながら、最大80%の精度向上を実現している。
論文 参考訳(メタデータ) (2023-04-08T15:24:57Z) - CRAFT: Criticality-Aware Fault-Tolerance Enhancement Techniques for
Emerging Memories-Based Deep Neural Networks [7.566423455230909]
ディープニューラルネットワーク(DNN)は、コンピュータビジョンと自然言語処理アプリケーションにとって最も効果的なプログラミングパラダイムとして登場した。
本稿では,NVMベースのDNNの信頼性を高めるために,CRAFT(Criticality-Aware Fault-Tolerance Enhancement Techniques)を提案する。
論文 参考訳(メタデータ) (2023-02-08T03:39:11Z) - A Comprehensive Study on Large-Scale Graph Training: Benchmarking and
Rethinking [124.21408098724551]
グラフニューラルネットワーク(GNN)の大規模グラフトレーニングは、非常に難しい問題である
本稿では,既存の問題に対処するため,EnGCNという新たなアンサンブルトレーニング手法を提案する。
提案手法は,大規模データセット上でのSOTA(State-of-the-art)の性能向上を実現している。
論文 参考訳(メタデータ) (2022-10-14T03:43:05Z) - CAP: Co-Adversarial Perturbation on Weights and Features for Improving
Generalization of Graph Neural Networks [59.692017490560275]
敵の訓練は、敵の攻撃に対するモデルの堅牢性を改善するために広く実証されてきた。
グラフ解析問題におけるGNNの一般化能力をどのように改善するかは、まだ不明である。
我々は、重みと特徴量の観点から共振器摂動(CAP)最適化問題を構築し、重みと特徴の損失を交互に平らにする交互対振器摂動アルゴリズムを設計する。
論文 参考訳(メタデータ) (2021-10-28T02:28:13Z) - ReSpawn: Energy-Efficient Fault-Tolerance for Spiking Neural Networks
considering Unreliable Memories [14.933137030206286]
スパイキングニューラルネットワーク(SNN)は、教師なし学習能力を持つ低エネルギーを持つ可能性を示している。
ハードウェアが引き起こした障害が記憶にある場合、その処理は精度の低下に悩まされる。
本稿では,オフチップメモリとオンチップメモリの両方におけるフォールトの影響を緩和する新しいフレームワークであるReSpawnを提案する。
論文 参考訳(メタデータ) (2021-08-23T16:17:33Z) - A Biased Graph Neural Network Sampler with Near-Optimal Regret [57.70126763759996]
グラフニューラルネットワーク(GNN)は、グラフおよびリレーショナルデータにディープネットワークアーキテクチャを適用する手段として登場した。
本論文では,既存の作業に基づいて,GNN近傍サンプリングをマルチアームバンディット問題として扱う。
そこで本研究では,分散を低減し,不安定かつ非限定的な支払いを回避すべく設計されたバイアスをある程度導入した報酬関数を提案する。
論文 参考訳(メタデータ) (2021-03-01T15:55:58Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。