論文の概要: Mitigating multiple single-event upsets during deep neural network inference using fault-aware training
- arxiv url: http://arxiv.org/abs/2502.09374v1
- Date: Thu, 13 Feb 2025 14:43:22 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-02-14 13:47:34.084731
- Title: Mitigating multiple single-event upsets during deep neural network inference using fault-aware training
- Title(参考訳): フォールト・アウェア・トレーニングを用いた深部ニューラルネットワーク推論における複数の単一イベント障害の軽減
- Authors: Toon Vinck, Naïn Jonckers, Gert Dekkers, Jeffrey Prinzie, Peter Karsmakers,
- Abstract要約: ディープニューラルネットワーク(DNN)は、安全クリティカルなアプリケーションでますます利用されている。
本研究は, モデルレベルで故障注入を行うことにより, DNNにおける複数単一ビット単点乱れの影響を解析する。
ハードウェアの変更なしにDNNのフォールトに対する堅牢性を向上するフォールトアウェアトレーニング(FAT)手法が提案されている。
- 参考スコア(独自算出の注目度): 0.0
- License:
- Abstract: Deep neural networks (DNNs) are increasingly used in safety-critical applications. Reliable fault analysis and mitigation are essential to ensure their functionality in harsh environments that contain high radiation levels. This study analyses the impact of multiple single-bit single-event upsets in DNNs by performing fault injection at the level of a DNN model. Additionally, a fault aware training (FAT) methodology is proposed that improves the DNNs' robustness to faults without any modification to the hardware. Experimental results show that the FAT methodology improves the tolerance to faults up to a factor 3.
- Abstract(参考訳): ディープニューラルネットワーク(DNN)は、安全クリティカルなアプリケーションでますます利用されている。
信頼性の高い断層解析と緩和は、高い放射線レベルを含む厳しい環境においてその機能を確保するために不可欠である。
本研究は,DNNモデルのレベルで故障注入を行うことにより,DNNにおける単一ビット単点乱れの影響を解析する。
さらに、ハードウェアの変更なしにDNNのフォールトに対する堅牢性を向上するフォールトアウェアトレーニング(FAT)手法が提案されている。
実験結果から, FAT法は3因子までの耐故障性を向上させることが示された。
関連論文リスト
- BDefects4NN: A Backdoor Defect Database for Controlled Localization Studies in Neural Networks [65.666913051617]
ローカライゼーション研究のための最初のバックドア欠陥データベースであるBDefects4NNを紹介する。
BDefects4NNは、ラベル付きバックドア欠陥DNNを神経細胞の粒度で提供し、欠陥根の原因の制御された局在化研究を可能にする。
本研究は, バックドア欠陥に対して限られた有効性を示す6つの障害局所化基準と2つの欠陥修復手法の評価実験を行った。
論文 参考訳(メタデータ) (2024-12-01T09:52:48Z) - DFA-GNN: Forward Learning of Graph Neural Networks by Direct Feedback Alignment [57.62885438406724]
グラフニューラルネットワークは、様々なアプリケーションにまたがる強力なパフォーマンスで認識されている。
BPには、その生物学的妥当性に挑戦する制限があり、グラフベースのタスクのためのトレーニングニューラルネットワークの効率、スケーラビリティ、並列性に影響を与える。
半教師付き学習のケーススタディを用いて,GNNに適した新しい前方学習フレームワークであるDFA-GNNを提案する。
論文 参考訳(メタデータ) (2024-06-04T07:24:51Z) - Enhancing Fault Resilience of QNNs by Selective Neuron Splitting [1.1091582432763736]
ディープニューラルネットワーク(DNN)の複雑さに取り組むために量子ニューラルネットワーク(QNN)が登場した。
本稿では,ニューロン脆弱性因子(NVF)に基づく臨界ニューロンの同定にQNNを用いた最近の解析的レジリエンス評価手法を提案する。
計算部分を再設計することなく、加速器内に軽量補正ユニット(LCU)を設計できる臨界ニューロン分割法が提案されている。
論文 参考訳(メタデータ) (2023-06-16T17:11:55Z) - RescueSNN: Enabling Reliable Executions on Spiking Neural Network
Accelerators under Permanent Faults [15.115813664357436]
RescueSNNはSNNチップの計算エンジンにおける永久欠陥を軽減する新しい手法である。
RescueSNNは、高い故障率で25%未満のスループットの削減を維持しながら、最大80%の精度向上を実現している。
論文 参考訳(メタデータ) (2023-04-08T15:24:57Z) - FlatENN: Train Flat for Enhanced Fault Tolerance of Quantized Deep
Neural Networks [0.03807314298073299]
アクティベーションスパース量子化DNN(QDNN)に対するビットフリップおよびスタントアット断層の影響について検討する。
高いレベルのアクティベーション間隔は、障害に対する大きな脆弱性のコストが伴うことを示す。
本稿では,シャープネスを考慮した量子化手法を用いて,断層の影響を緩和する手法を提案する。
論文 参考訳(メタデータ) (2022-12-29T06:06:14Z) - Fault-Aware Design and Training to Enhance DNNs Reliability with
Zero-Overhead [67.87678914831477]
ディープニューラルネットワーク(DNN)は、幅広い技術的進歩を可能にする。
最近の知見は、過渡的なハードウェア欠陥がモデル予測を劇的に損なう可能性があることを示唆している。
本研究では,トレーニングとモデル設計の両面で信頼性の問題に取り組むことを提案する。
論文 参考訳(メタデータ) (2022-05-28T13:09:30Z) - FitAct: Error Resilient Deep Neural Networks via Fine-Grained
Post-Trainable Activation Functions [0.05249805590164901]
ディープニューラルネットワーク(DNN)は、パーソナルヘルスケアデバイスや自動運転車などの安全クリティカルなシステムにますます導入されている。
本稿では,DNNの微粒化後のアクティベーション機能を実装することで,DNNのエラーレジリエンスを高めるための低コストなアプローチであるFitActを提案する。
論文 参考訳(メタデータ) (2021-12-27T07:07:50Z) - Spatial-Temporal-Fusion BNN: Variational Bayesian Feature Layer [77.78479877473899]
我々は,BNNを大規模モデルに効率的にスケールするための時空間BNNを設計する。
バニラBNNと比較して,本手法はトレーニング時間とパラメータ数を著しく削減し,BNNのスケールアップに有効である。
論文 参考訳(メタデータ) (2021-12-12T17:13:14Z) - A Biased Graph Neural Network Sampler with Near-Optimal Regret [57.70126763759996]
グラフニューラルネットワーク(GNN)は、グラフおよびリレーショナルデータにディープネットワークアーキテクチャを適用する手段として登場した。
本論文では,既存の作業に基づいて,GNN近傍サンプリングをマルチアームバンディット問題として扱う。
そこで本研究では,分散を低減し,不安定かつ非限定的な支払いを回避すべく設計されたバイアスをある程度導入した報酬関数を提案する。
論文 参考訳(メタデータ) (2021-03-01T15:55:58Z) - GraN: An Efficient Gradient-Norm Based Detector for Adversarial and
Misclassified Examples [77.99182201815763]
ディープニューラルネットワーク(DNN)は、敵対的な例やその他のデータ摂動に対して脆弱である。
GraNは、どのDNNにも容易に適応できる時間およびパラメータ効率の手法である。
GraNは多くの問題セットで最先端のパフォーマンスを達成する。
論文 参考訳(メタデータ) (2020-04-20T10:09:27Z) - A Low-cost Fault Corrector for Deep Neural Networks through Range
Restriction [1.8907108368038215]
安全クリティカルドメインのディープニューラルネットワーク(DNN)は、深刻な信頼性を懸念している。
本研究は,過渡的故障による故障を再計算せずに直接修正する低コストな故障修正器であるRangeを提案する。
論文 参考訳(メタデータ) (2020-03-30T23:53:55Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。