論文の概要: Fault Injectors for TensorFlow: Evaluation of the Impact of Random
Hardware Faults on Deep CNNs
- arxiv url: http://arxiv.org/abs/2012.07037v1
- Date: Sun, 13 Dec 2020 11:16:25 GMT
- ステータス: 処理完了
- システム内更新日: 2021-05-09 12:40:51.896251
- Title: Fault Injectors for TensorFlow: Evaluation of the Impact of Random
Hardware Faults on Deep CNNs
- Title(参考訳): TensorFlowのフォールトインジェクタ: ハードウェアのランダム故障がディープCNNに与える影響の評価
- Authors: Michael Beyer, Andrey Morozov, Emil Valiev, Christoph Schorn, Lydia
Gauerhof, Kai Ding, Klaus Janschek
- Abstract要約: 我々は,ランダムな障害の存在下での深層学習(dl)コンポーネントの動作を評価するための2つの新しいフォールトインジェクション(fi)フレームワークを提案する。
本稿では,2つの画像セットを用いた4つのvgg畳み込みnnを用いたfi実験の結果について述べる。
結果は、最も重要な操作とレイヤーを特定し、機能的に類似したNNの信頼性特性を比較し、選択的なフォールトトレランスメカニズムを導入するのに役立ちます。
- 参考スコア(独自算出の注目度): 4.854070123523902
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Today, Deep Learning (DL) enhances almost every industrial sector, including
safety-critical areas. The next generation of safety standards will define
appropriate verification techniques for DL-based applications and propose
adequate fault tolerance mechanisms. DL-based applications, like any other
software, are susceptible to common random hardware faults such as bit flips,
which occur in RAM and CPU registers. Such faults can lead to silent data
corruption. Therefore, it is crucial to develop methods and tools that help to
evaluate how DL components operate under the presence of such faults. In this
paper, we introduce two new Fault Injection (FI) frameworks InjectTF and
InjectTF2 for TensorFlow 1 and TensorFlow 2, respectively. Both frameworks are
available on GitHub and allow the configurable injection of random faults into
Neural Networks (NN). In order to demonstrate the feasibility of the
frameworks, we also present the results of FI experiments conducted on four
VGG-based Convolutional NNs using two image sets. The results demonstrate how
random bit flips in the output of particular mathematical operations and layers
of NNs affect the classification accuracy. These results help to identify the
most critical operations and layers, compare the reliability characteristics of
functionally similar NNs, and introduce selective fault tolerance mechanisms.
- Abstract(参考訳): 今日、Deep Learning (DL) は安全クリティカルな分野を含むほぼすべての産業部門を強化している。
次世代の安全基準は、DLベースのアプリケーションに対する適切な検証手法を定義し、適切な耐故障機構を提案する。
dlベースのアプリケーションは、他のソフトウェアと同様に、ramやcpuレジスタで発生するビットフリップなどの一般的なランダムなハードウェア障害に影響を受けやすい。
このような欠陥は、静かなデータの破損につながる可能性がある。
そのため,このような欠陥が存在する場合に,DLコンポーネントがどのように機能するかを評価する手法やツールを開発することが重要である。
本稿では,TensorFlow 1 と TensorFlow 2 用の InjectTF と InjectTF2 の2つの新しいFact Injection (FI) フレームワークを紹介する。
どちらのフレームワークもGitHubで利用可能で、ランダムな障害をニューラルネットワーク(NN)に設定可能なインジェクションを可能にする。
2つの画像集合を用いた4つのVGGベースの畳み込みNNにおいて行われたFI実験の結果も示す。
その結果、特定の数学的操作とnnのレイヤーの出力におけるランダムビットの反転が分類精度にどのように影響するかが示される。
これらの結果は、最も重要な操作と層を特定し、機能的に類似したnnの信頼性特性を比較し、選択的フォールトトレランス機構を導入するのに役立つ。
関連論文リスト
- Evaluating Single Event Upsets in Deep Neural Networks for Semantic Segmentation: an embedded system perspective [1.474723404975345]
本稿では,組み込みディープニューラルネットワーク(DNN)のロバスト性評価について述べる。
本研究は,様々なエンコーダデコーダモデルの層間およびビット間感度をソフトエラーに精査することにより,セグメント化DNNのSEUに対する脆弱性を徹底的に調査する。
本稿では,資源制約によるデプロイメントに適したメモリや計算コストを伴わない,実用的な軽量なエラー軽減手法を提案する。
論文 参考訳(メタデータ) (2024-12-04T18:28:38Z) - Exact Certification of (Graph) Neural Networks Against Label Poisoning [50.87615167799367]
機械学習モデルはラベルのフリップ(ラベルのフリップ)に弱い。
サンプルと集合証明書の両方を抽出し,正確な認証手法を提案する。
私たちの研究は、ニューラルネットワークによって引き起こされた毒殺攻撃に対する最初の正確な証明書を提示しました。
論文 参考訳(メタデータ) (2024-11-30T17:05:12Z) - Cal-DETR: Calibrated Detection Transformer [67.75361289429013]
本稿では,Deformable-DETR,UP-DETR,DINOのキャリブレーション検出トランス(Cal-DETR)のメカニズムを提案する。
我々は、不確実性を利用してクラスロジットを変調する不確実性誘導ロジット変調機構を開発する。
その結果、Cal-DETRは、ドメイン内およびドメイン外の両方を校正する競合する列車時間法に対して有効であることがわかった。
論文 参考訳(メタデータ) (2023-11-06T22:13:10Z) - Large-Scale Application of Fault Injection into PyTorch Models -- an
Extension to PyTorchFI for Validation Efficiency [1.7205106391379026]
PyTorchALFI (Application Level Fault Injection for PyTorch) という,PyTorchFIに基づく新しいフォールトインジェクションフレームワークを導入する。
PyTorchALFIは、ランダムに生成された再利用可能な障害セットを定義して、PyTorchモデルに注入する効率的な方法を提供する。
論文 参考訳(メタデータ) (2023-10-30T11:18:35Z) - The #DNN-Verification Problem: Counting Unsafe Inputs for Deep Neural
Networks [94.63547069706459]
#DNN-Verification問題は、DNNの入力構成の数を数えることによって安全性に反する結果となる。
違反の正確な数を返す新しい手法を提案する。
安全クリティカルなベンチマークのセットに関する実験結果を示す。
論文 参考訳(メタデータ) (2023-01-17T18:32:01Z) - Can pruning improve certified robustness of neural networks? [106.03070538582222]
ニューラルネット・プルーニングはディープ・ニューラル・ネットワーク(NN)の実証的ロバスト性を向上させることができることを示す。
実験の結果,NNを適切に刈り取ることで,その精度を8.2%まで向上させることができることがわかった。
さらに,認証された宝くじの存在が,従来の密集モデルの標準および認証された堅牢な精度に一致することを観察する。
論文 参考訳(メタデータ) (2022-06-15T05:48:51Z) - Fast and Accurate Error Simulation for CNNs against Soft Errors [64.54260986994163]
本稿では,誤りシミュレーションエンジンを用いて,コナールニューラルネットワーク(CNN)の信頼性解析のためのフレームワークを提案する。
これらの誤差モデルは、故障によって誘導されるCNN演算子の出力の破損パターンに基づいて定義される。
提案手法は,SASSIFIの欠陥効果の約99%の精度と,限定的なエラーモデルのみを実装した44倍から63倍までのスピードアップを実現する。
論文 参考訳(メタデータ) (2022-06-04T19:45:02Z) - Reliability Assessment of Neural Networks in GPUs: A Framework For
Permanent Faults Injections [1.0992151305603266]
本稿では,GPU上での障害注入キャンペーンを行うための,バイナリインスツルメンテーションツールを利用したフレームワークを提案する。
この環境は、永続的な障害の存在を考慮して、GPU上にデプロイされたCNNの信頼性を初めて評価することを可能にする。
論文 参考訳(メタデータ) (2022-05-24T16:21:53Z) - FAT: Training Neural Networks for Reliable Inference Under Hardware
Faults [3.191587417198382]
本稿では、ニューラルネットワーク(NN)トレーニング中のエラーモデリングを含む、フォールト・アウェア・トレーニング(FAT)と呼ばれる新しい手法を提案し、デバイス上の特定のフォールトモデルに耐性を持たせる。
FATはCIFAR10、GTSRB、SVHN、ImageNetなど多くの分類タスクに対して検証されている。
論文 参考訳(メタデータ) (2020-11-11T16:09:39Z) - FATNN: Fast and Accurate Ternary Neural Networks [89.07796377047619]
Ternary Neural Networks (TNN) は、完全な精度のニューラルネットワークよりもはるかに高速で、電力効率が高いため、多くの注目を集めている。
そこで本研究では、3次内積の計算複雑性を2。
性能ギャップを軽減するために,実装に依存した3次量子化アルゴリズムを精巧に設計する。
論文 参考訳(メタデータ) (2020-08-12T04:26:18Z) - FT-CNN: Algorithm-Based Fault Tolerance for Convolutional Neural
Networks [13.100954947774163]
畳み込みニューラルネットワーク(CNN)は、多くの分野において困難で重要な問題を解決するためにますます重要になっている。
CNN推論アプリケーションは、高エネルギー粒子や高温、異常電圧によるソフトエラーに悩まされる安全クリティカルなシステムにデプロイされている。
従来のフォールトトレランス法は、エラー訂正符号が計算コンポーネントを保護することができないため、CNNの推論には適さない。
論文 参考訳(メタデータ) (2020-03-27T02:01:54Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。