論文の概要: PyGFI: Analyzing and Enhancing Robustness of Graph Neural Networks
Against Hardware Errors
- arxiv url: http://arxiv.org/abs/2212.03475v2
- Date: Mon, 24 Apr 2023 15:38:27 GMT
- ステータス: 処理完了
- システム内更新日: 2023-04-25 23:08:21.653378
- Title: PyGFI: Analyzing and Enhancing Robustness of Graph Neural Networks
Against Hardware Errors
- Title(参考訳): PyGFI: ハードウェアエラーに対するグラフニューラルネットワークのロバスト性の解析と向上
- Authors: Ruixuan Wang, Fred Lin, Daniel Moore, Sriram Sankar, Xun Jiao
- Abstract要約: グラフニューラルネットワーク(GNN)は,グラフ構造化データの学習において,有望な学習パラダイムとして登場した。
本稿では,ハードウェア故障とGNN精度の関係を理解することを目的とした,GNNレジリエンスの大規模かつ実証的研究を行う。
- 参考スコア(独自算出の注目度): 3.2780036095732035
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Graph neural networks (GNNs) have recently emerged as a promising learning
paradigm in learning graph-structured data and have demonstrated wide success
across various domains such as recommendation systems, social networks, and
electronic design automation (EDA). Like other deep learning (DL) methods, GNNs
are being deployed in sophisticated modern hardware systems, as well as
dedicated accelerators. However, despite the popularity of GNNs and the recent
efforts of bringing GNNs to hardware, the fault tolerance and resilience of
GNNs have generally been overlooked. Inspired by the inherent algorithmic
resilience of DL methods, this paper conducts, for the first time, a
large-scale and empirical study of GNN resilience, aiming to understand the
relationship between hardware faults and GNN accuracy. By developing a
customized fault injection tool on top of PyTorch, we perform extensive fault
injection experiments on various GNN models and application datasets. We
observe that the error resilience of GNN models varies by orders of magnitude
with respect to different models and application datasets. Further, we explore
a low-cost error mitigation mechanism for GNN to enhance its resilience. This
GNN resilience study aims to open up new directions and opportunities for
future GNN accelerator design and architectural optimization.
- Abstract(参考訳): グラフニューラルネットワーク(GNN)は近年,グラフ構造化データの学習において有望な学習パラダイムとして登場し,レコメンデーションシステムやソーシャルネットワーク,電子設計自動化(EDA)など,さまざまな領域で広く成功している。
他のディープラーニング(DL)メソッドと同様に、GNNは高度なハードウェアシステムや専用のアクセラレータにデプロイされている。
しかし、GNNの人気と近年のハードウェアへのGNN導入の取り組みにもかかわらず、GNNのフォールトトレランスとレジリエンスは概して見過ごされている。
本論文は, DL手法のアルゴリズム的レジリエンスに着想を得て, ハードウェア欠陥とGNN精度の関係を理解することを目的とした, GNNレジリエンスの大規模かつ実証的研究を行う。
PyTorch上にカスタマイズされたフォールトインジェクションツールを開発することで、さまざまなGNNモデルやアプリケーションデータセットに対して広範なフォールトインジェクション実験を行う。
我々は,GNNモデルの誤差レジリエンスが,異なるモデルやアプリケーションデータセットに対して桁違いに変化することを観察した。
さらに,gnnのレジリエンス向上のために,低コストなエラー緩和機構を検討する。
このGNNレジリエンス研究は、将来のGNNアクセラレータ設計とアーキテクチャ最適化のための新たな方向性と機会を開くことを目的としている。
関連論文リスト
- DFA-GNN: Forward Learning of Graph Neural Networks by Direct Feedback Alignment [57.62885438406724]
グラフニューラルネットワークは、様々なアプリケーションにまたがる強力なパフォーマンスで認識されている。
BPには、その生物学的妥当性に挑戦する制限があり、グラフベースのタスクのためのトレーニングニューラルネットワークの効率、スケーラビリティ、並列性に影響を与える。
半教師付き学習のケーススタディを用いて,GNNに適した新しい前方学習フレームワークであるDFA-GNNを提案する。
論文 参考訳(メタデータ) (2024-06-04T07:24:51Z) - Unleash Graph Neural Networks from Heavy Tuning [33.948899558876604]
グラフニューラルネットワーク(GNN)は、グラフ型データ用に設計されたディープラーニングアーキテクチャである。
本稿では,光チューニングされた粗い探索中に保存されたチェックポイントから学習することで,高性能なGNNを直接生成するグラフ条件付き潜時拡散フレームワーク(GNN-Diff)を提案する。
論文 参考訳(メタデータ) (2024-05-21T06:23:47Z) - Securing Graph Neural Networks in MLaaS: A Comprehensive Realization of Query-based Integrity Verification [68.86863899919358]
我々は機械学習におけるGNNモデルをモデル中心の攻撃から保護するための画期的なアプローチを導入する。
提案手法は,GNNの完全性に対する包括的検証スキーマを含み,トランスダクティブとインダクティブGNNの両方を考慮している。
本稿では,革新的なノード指紋生成アルゴリズムを組み込んだクエリベースの検証手法を提案する。
論文 参考訳(メタデータ) (2023-12-13T03:17:05Z) - Attentional Graph Neural Networks for Robust Massive Network
Localization [20.416879207269446]
グラフニューラルネットワーク(GNN)は、機械学習における分類タスクの顕著なツールとして登場した。
本稿では,GNNとアテンション機構を統合し,ネットワークローカライゼーションという難解な非線形回帰問題に対処する。
我々はまず,厳密な非視線(NLOS)条件下でも例外的な精度を示すグラフ畳み込みネットワーク(GCN)に基づく新しいネットワークローカライゼーション手法を提案する。
論文 参考訳(メタデータ) (2023-11-28T15:05:13Z) - GNN-Ensemble: Towards Random Decision Graph Neural Networks [3.7620848582312405]
グラフニューラルネットワーク(GNN)は、グラフ構造化データに広く応用されている。
GNNは、大量のテストデータに基づいて推論を行うために、限られた量のトレーニングデータから潜伏パターンを学習する必要がある。
本稿では、GNNのアンサンブル学習を一歩前進させ、精度、堅牢性、敵攻撃を改善した。
論文 参考訳(メタデータ) (2023-03-20T18:24:01Z) - Distributed Graph Neural Network Training: A Survey [51.77035975191926]
グラフニューラルネットワーク(GNN)は、グラフに基づいてトレーニングされたディープラーニングモデルの一種で、さまざまな領域にうまく適用されている。
GNNの有効性にもかかわらず、GNNが大規模グラフに効率的にスケールすることは依然として困難である。
治療法として、分散コンピューティングは大規模GNNをトレーニングするための有望なソリューションとなる。
論文 参考訳(メタデータ) (2022-11-01T01:57:00Z) - EvenNet: Ignoring Odd-Hop Neighbors Improves Robustness of Graph Neural
Networks [51.42338058718487]
グラフニューラルネットワーク(GNN)は、グラフ機械学習における有望なパフォーマンスについて、広範な研究の注目を集めている。
GCNやGPRGNNのような既存のアプローチは、テストグラフ上のホモフィリな変化に直面しても堅牢ではない。
偶数多項式グラフフィルタに対応するスペクトルGNNであるEvenNetを提案する。
論文 参考訳(メタデータ) (2022-05-27T10:48:14Z) - Graph Neural Networks in Particle Physics: Implementations, Innovations,
and Challenges [7.071890461446324]
現在HEPコミュニティで十分に評価されている機能やまだ未成熟な機能について紹介する。
業界におけるGNNの普及により、HEPコミュニティは、GNNレイテンシとメモリ使用量の急速な改善の恩恵を受けることができる。
我々は、機械学習におけるグラフ技術の展望を捉え、また、研究の大きな飛躍を阻害している最も重要なギャップを指摘したいと考えています。
論文 参考訳(メタデータ) (2022-03-23T04:36:04Z) - CAP: Co-Adversarial Perturbation on Weights and Features for Improving
Generalization of Graph Neural Networks [59.692017490560275]
敵の訓練は、敵の攻撃に対するモデルの堅牢性を改善するために広く実証されてきた。
グラフ解析問題におけるGNNの一般化能力をどのように改善するかは、まだ不明である。
我々は、重みと特徴量の観点から共振器摂動(CAP)最適化問題を構築し、重みと特徴の損失を交互に平らにする交互対振器摂動アルゴリズムを設計する。
論文 参考訳(メタデータ) (2021-10-28T02:28:13Z) - IGNNITION: Bridging the Gap Between Graph Neural Networks and Networking
Systems [4.1591055164123665]
本稿では,ネットワークシステムのためのグラフニューラルネットワーク(GNN)の高速プロトタイピングを可能にする,新しいオープンソースフレームワークIGNNITIONを提案する。
IGNNITIONは、GNNの背後にある複雑さを隠す直感的な高レベルの抽象化に基づいている。
IGNNITIONが生成するGNNモデルは,ネイティブ実装の精度と性能の点で同等であることを示す。
論文 参考訳(メタデータ) (2021-09-14T14:28:21Z) - Attentive Graph Neural Networks for Few-Shot Learning [74.01069516079379]
グラフニューラルネットワーク(GNN)は、数ショットの学習タスクを含む多くの困難なアプリケーションにおいて、優れたパフォーマンスを示している。
少数のサンプルからモデルを学習し、一般化する能力があるにもかかわらず、GNNは通常、モデルが深くなるにつれて、過度な過度な適合と過度なスムーシングに悩まされる。
本稿では,三重注意機構を組み込むことにより,これらの課題に対処するための新しい注意型GNNを提案する。
論文 参考訳(メタデータ) (2020-07-14T07:43:09Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。