論文の概要: Reliability Assessment of Neural Networks in GPUs: A Framework For
Permanent Faults Injections
- arxiv url: http://arxiv.org/abs/2205.12177v1
- Date: Tue, 24 May 2022 16:21:53 GMT
- ステータス: 処理完了
- システム内更新日: 2022-06-27 07:46:38.011109
- Title: Reliability Assessment of Neural Networks in GPUs: A Framework For
Permanent Faults Injections
- Title(参考訳): gpuにおけるニューラルネットワークの信頼性評価:永久的障害注入のための枠組み
- Authors: Juan-David Guerrero-Balaguera, Luigi Galasso, Robert Limas Sierra,
Matteo Sonza Reorda
- Abstract要約: 本稿では,GPU上での障害注入キャンペーンを行うための,バイナリインスツルメンテーションツールを利用したフレームワークを提案する。
この環境は、永続的な障害の存在を考慮して、GPU上にデプロイされたCNNの信頼性を初めて評価することを可能にする。
- 参考スコア(独自算出の注目度): 1.0992151305603266
- License: http://creativecommons.org/licenses/by-sa/4.0/
- Abstract: Currently, Deep learning and especially Convolutional Neural Networks (CNNs)
have become a fundamental computational approach applied in a wide range of
domains, including some safety-critical applications (e.g., automotive,
robotics, and healthcare equipment). Therefore, the reliability evaluation of
those computational systems is mandatory. The reliability evaluation of CNNs is
performed by fault injection campaigns at different levels of abstraction, from
the application level down to the hardware level. Many works have focused on
evaluating the reliability of neural networks in the presence of transient
faults. However, the effects of permanent faults have been investigated at the
application level, only, e.g., targeting the parameters of the network. This
paper intends to propose a framework, resorting to a binary instrumentation
tool to perform fault injection campaigns, targeting different components
inside the GPU, such as the register files and the functional units. This
environment allows for the first time assessing the reliability of CNNs
deployed on a GPU considering the presence of permanent faults.
- Abstract(参考訳): 現在、ディープラーニングと特に畳み込みニューラルネットワーク(cnns)は、安全クリティカルなアプリケーション(自動車、ロボティクス、医療機器など)を含む、幅広い領域に適用される基本的な計算アプローチとなっている。
したがって,これらの計算システムの信頼性評価は必須である。
CNNの信頼性評価は,アプリケーションのレベルからハードウェアレベルまで,さまざまな抽象化レベルでフォールトインジェクションキャンペーンによって行われる。
多くの研究は、過渡的障害の存在下でのニューラルネットワークの信頼性の評価に焦点を当てている。
しかし、永続的な障害の影響は、例えばネットワークのパラメータをターゲットとするアプリケーションレベルでのみ調査されている。
本稿では,レジスタファイルや機能ユニットなど,GPU内のさまざまなコンポーネントを対象として,障害注入キャンペーンを行うためのバイナリインスツルメンテーションツールを用いたフレームワークを提案する。
この環境は、永久障害の存在を考慮してgpuにデプロイされたcnnの信頼性を初めて評価することができる。
関連論文リスト
- Gradient Routing: Masking Gradients to Localize Computation in Neural Networks [43.0686937643683]
ニューラルネットワークの特定の部分領域に機能を分離する訓練手法である勾配ルーティングを導入する。
解析可能な方法で分割された表現を学習するために、勾配ルーティングが利用できることを示す。
私たちは、高品質なデータが不足している、挑戦的な現実世界のアプリケーションに対して、このアプローチが約束されていると結論付けます。
論文 参考訳(メタデータ) (2024-10-06T02:43:49Z) - Special Session: Approximation and Fault Resiliency of DNN Accelerators [0.9126382223122612]
本稿では,Deep Neural Networkアクセラレータの近似とフォールトレジリエンスについて検討する。
本稿では,DNNに障害注入を行わずにハードウェアのエラーをエミュレートするために近似(AxC)演算回路を提案する。
また,ネットワーク上での断層伝播とマスキングによる耐故障性の微粒化解析も提案する。
論文 参考訳(メタデータ) (2023-05-31T19:27:45Z) - FERN: Leveraging Graph Attention Networks for Failure Evaluation and
Robust Network Design [46.302926845889694]
我々は、スケーラブルな故障評価とロバストネットワーク設計のための学習ベースのフレームワークFERNを開発した。
FERNは、リッチな問題入力をグラフとして表現し、グラフから特徴抽出を注意深く実行することによって、ローカルとグローバルの両方のビューをキャプチャする。
複数のロバストなネットワーク設計問題を,それぞれ80倍,200倍,10倍以上スピードアップすることができる。
論文 参考訳(メタデータ) (2023-05-30T15:56:25Z) - DeepVigor: Vulnerability Value Ranges and Factors for DNNs' Reliability
Assessment [1.189955933770711]
Deep Neural Networks(DNN)とそのアクセラレータは、安全クリティカルなアプリケーションに頻繁にデプロイされている。
本稿では,DeepVigorと呼ばれる,高精度,微粒化,メトリック指向,アクセラレーションに依存しない新しい手法を提案する。
論文 参考訳(メタデータ) (2023-03-13T08:55:10Z) - Quantization-aware Interval Bound Propagation for Training Certifiably
Robust Quantized Neural Networks [58.195261590442406]
我々は、逆向きに頑健な量子化ニューラルネットワーク(QNN)の訓練と証明の課題について検討する。
近年の研究では、浮動小数点ニューラルネットワークが量子化後の敵攻撃に対して脆弱であることが示されている。
本稿では、堅牢なQNNをトレーニングするための新しい方法であるQA-IBP(quantization-aware interval bound propagation)を提案する。
論文 参考訳(メタデータ) (2022-11-29T13:32:38Z) - Towards a Safety Case for Hardware Fault Tolerance in Convolutional
Neural Networks Using Activation Range Supervision [1.7968112116887602]
畳み込みニューラルネットワーク(CNN)は多くの安全クリティカルなコンピュータビジョンアプリケーションの一部として確立されている。
我々は,高度に信頼性の高い故障検知器として範囲監視が重要であることを示すことによって,CNNのプロトタイプ型安全ケースを構築した。
本研究では,無声データ破損の確率と訂正不能な誤りを効果的に抑制する,新しい非一様範囲制限法について検討する。
論文 参考訳(メタデータ) (2021-08-16T11:13:55Z) - Increasing the Confidence of Deep Neural Networks by Coverage Analysis [71.57324258813674]
本稿では、異なる安全でない入力に対してモデルを強化するために、カバレッジパラダイムに基づく軽量な監視アーキテクチャを提案する。
実験結果から,提案手法は強力な対向例とアウト・オブ・ディストリビューション・インプットの両方を検出するのに有効であることが示唆された。
論文 参考訳(メタデータ) (2021-01-28T16:38:26Z) - Provably Training Neural Network Classifiers under Fairness Constraints [70.64045590577318]
過パラメータのニューラルネットワークが制約を満たしていることを示す。
公平なニューラルネットワーク分類器を構築する上で重要な要素は、ニューラルネットワークの非応答解析を確立することである。
論文 参考訳(メタデータ) (2020-12-30T18:46:50Z) - Fault Injectors for TensorFlow: Evaluation of the Impact of Random
Hardware Faults on Deep CNNs [4.854070123523902]
我々は,ランダムな障害の存在下での深層学習(dl)コンポーネントの動作を評価するための2つの新しいフォールトインジェクション(fi)フレームワークを提案する。
本稿では,2つの画像セットを用いた4つのvgg畳み込みnnを用いたfi実験の結果について述べる。
結果は、最も重要な操作とレイヤーを特定し、機能的に類似したNNの信頼性特性を比較し、選択的なフォールトトレランスメカニズムを導入するのに役立ちます。
論文 参考訳(メタデータ) (2020-12-13T11:16:25Z) - FAT: Training Neural Networks for Reliable Inference Under Hardware
Faults [3.191587417198382]
本稿では、ニューラルネットワーク(NN)トレーニング中のエラーモデリングを含む、フォールト・アウェア・トレーニング(FAT)と呼ばれる新しい手法を提案し、デバイス上の特定のフォールトモデルに耐性を持たせる。
FATはCIFAR10、GTSRB、SVHN、ImageNetなど多くの分類タスクに対して検証されている。
論文 参考訳(メタデータ) (2020-11-11T16:09:39Z) - Binary Neural Networks: A Survey [126.67799882857656]
バイナリニューラルネットワークは、リソース制限されたデバイスにディープモデルをデプロイするための有望なテクニックとして機能する。
バイナライゼーションは必然的に深刻な情報損失を引き起こし、さらに悪いことに、その不連続性はディープネットワークの最適化に困難をもたらす。
本稿では,2項化を直接実施するネイティブソリューションと,量子化誤差の最小化,ネットワーク損失関数の改善,勾配誤差の低減といった手法を用いて,これらのアルゴリズムを探索する。
論文 参考訳(メタデータ) (2020-03-31T16:47:20Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。