論文の概要: Efficient Triple Modular Redundancy for Reliability Enhancement of DNNs Using Explainable AI
- arxiv url: http://arxiv.org/abs/2507.08829v1
- Date: Fri, 04 Jul 2025 21:39:25 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-07-20 22:54:22.101013
- Title: Efficient Triple Modular Redundancy for Reliability Enhancement of DNNs Using Explainable AI
- Title(参考訳): 説明可能なAIを用いたDNNの信頼性向上のための3重モジュール冗長性
- Authors: Kimia Soroush, Nastaran Shirazi, Mohsen Raji,
- Abstract要約: 三重モード冗長性(TMR)はディープニューラルネットワーク(DNN)の信頼性を高める効果的な手法である
TMRは、モデル出力において最も寄与率の高いパラメータと成分に選択的に適用される。
本稿では, 説明可能な人工知能(XAI)手法を用いて, ビットフリップ断層に対するDNNの信頼性を高めるための効率的なTMR手法を提案する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Deep Neural Networks (DNNs) are widely employed in safety-critical domains, where ensuring their reliability is essential. Triple Modular Redundancy (TMR) is an effective technique to enhance the reliability of DNNs in the presence of bit-flip faults. In order to handle the significant overhead of TMR, it is applied selectively on the parameters and components with the highest contribution at the model output. Hence, the accuracy of the selection criterion plays the key role on the efficiency of TMR. This paper presents an efficient TMR approach to enhance the reliability of DNNs against bit-flip faults using an Explainable Artificial Intelligence (XAI) method. Since XAI can provide valuable insights about the importance of individual neurons and weights in the performance of the network, they can be applied as the selection metric in TMR techniques. The proposed method utilizes a low-cost, gradient-based XAI technique known as Layer-wise Relevance Propagation (LRP) to calculate importance scores for DNN parameters. These scores are then used to enhance the reliability of the model, with the most critical weights being protected by TMR. The proposed approach is evaluated on two DNN models, VGG16 and AlexNet, using datasets such as MNIST and CIFAR-10. The results demonstrate that the method can protect the AlexNet model at a bit error rate of 10-4, achieving over 60% reliability improvement while maintaining the same overhead as state-of-the-art methods.
- Abstract(参考訳): ディープニューラルネットワーク(DNN)は安全クリティカルなドメインで広く採用されており、信頼性を保証することが不可欠である。
Triple Modular Redundancy (TMR) はビットフリップ断層の存在下でのDNNの信頼性を高める効果的な手法である。
TMRのかなりのオーバーヘッドに対処するため、モデル出力において最も貢献するパラメータやコンポーネントを選択的に適用する。
したがって、選択基準の精度は、TMRの効率において重要な役割を果たす。
本稿では, 説明可能な人工知能(XAI)手法を用いて, ビットフリップ断層に対するDNNの信頼性を高めるための効率的なTMR手法を提案する。
XAIは、ネットワークの性能において個々のニューロンの重要性と重みについて貴重な洞察を与えることができるので、TMR技術における選択指標として適用することができる。
提案手法は,DNNパラメータの重要度を計算するために,レイヤワイド関連伝搬(Layer-wise Relevance Propagation, LRP)と呼ばれる低コストで勾配に基づくXAI手法を用いる。
これらのスコアはモデルの信頼性を高めるために使用され、最も重要な重量はTMRによって保護される。
提案手法は、MNISTやCIFAR-10といったデータセットを用いて、2つのDNNモデルであるVGG16とAlexNetで評価される。
その結果、この手法はAlexNetモデルを10~4ビット誤り率で保護し、最先端の手法と同じオーバーヘッドを維持しながら信頼性を60%以上向上できることを示した。
関連論文リスト
- Efficient Memristive Spiking Neural Networks Architecture with Supervised In-Situ STDP Method [0.0]
時間的スパイクエンコーディングを備えたメムリスタベースのスパイキングニューラルネットワーク(SNN)は、超低エネルギー計算を可能にする。
本稿では,新しい教師付きin-situ学習アルゴリズムを用いて学習した回路レベルのメムリシブスパイクニューラルネットワーク(SNN)アーキテクチャを提案する。
論文 参考訳(メタデータ) (2025-07-28T17:09:48Z) - Efficient Fault Detection in WSN Based on PCA-Optimized Deep Neural Network Slicing Trained with GOA [0.6827423171182154]
従来の障害検出手法は、効率的なパフォーマンスのためにディープニューラルネットワーク(DNN)の最適化に苦労することが多い。
本研究では,これらの制約に対処するためにGrasshopper Optimization Algorithm(GOA)によって最適化されたDNNと主成分分析(PCA)を組み合わせた新しいハイブリッド手法を提案する。
従来の手法よりも優れた精度とリコールで,99.72%の分類精度を実現している。
論文 参考訳(メタデータ) (2025-05-11T15:51:56Z) - EPSILON: Adaptive Fault Mitigation in Approximate Deep Neural Network using Statistical Signatures [0.0]
我々は、ディープニューラルネットワークアクセラレータ(AxDNN)における効率的な障害検出と緩和のための軽量フレームワークであるEPSILONを紹介する。
本フレームワークでは,非パラメトリックなパターンマッチングアルゴリズムを導入し,通常の実行を中断することなく一定時間故障検出を実現する。
EPSILONは、重量分布と層臨界度の統計解析に基づいて緩和戦略をインテリジェントに調整することで、モデルの精度を維持する。
論文 参考訳(メタデータ) (2025-04-24T20:37:37Z) - Deep-Unrolling Multidimensional Harmonic Retrieval Algorithms on Neuromorphic Hardware [78.17783007774295]
本稿では,高精度かつエネルギー効率の高い単発多次元高調波検索のための変換に基づくニューロモルフィックアルゴリズムの可能性について検討する。
複雑な値の畳み込み層と活性化をスパイクニューラルネットワーク(SNN)に変換する新しい手法を開発した。
変換されたSNNは、元のCNNに比べて性能が低下し、ほぼ5倍の電力効率を実現している。
論文 参考訳(メタデータ) (2024-12-05T09:41:33Z) - Data-Driven Lipschitz Continuity: A Cost-Effective Approach to Improve Adversarial Robustness [47.9744734181236]
我々は、ディープニューラルネットワーク(DNN)の敵攻撃に対する堅牢性を証明するために、リプシッツ連続性の概念を探求する。
本稿では,入力領域を制約範囲に再マップし,リプシッツ定数を低減し,ロバスト性を高める新しいアルゴリズムを提案する。
本手法は,ロバストベンチリーダーボード上のCIFAR10,CIFAR100,ImageNetデータセットに対して,最も堅牢な精度を実現する。
論文 参考訳(メタデータ) (2024-06-28T03:10:36Z) - A model for multi-attack classification to improve intrusion detection
performance using deep learning approaches [0.0]
ここでの目的は、悪意のある攻撃を識別するための信頼性の高い侵入検知メカニズムを作ることである。
ディープラーニングベースのソリューションフレームワークは、3つのアプローチから成り立っている。
最初のアプローチは、adamax、SGD、adagrad、adam、RMSprop、nadam、adadeltaといった7つの機能を持つLong-Short Term Memory Recurrent Neural Network (LSTM-RNN)である。
モデルは特徴を自己学習し、攻撃クラスをマルチアタック分類として分類する。
論文 参考訳(メタデータ) (2023-10-25T05:38:44Z) - Enhancing Accuracy in Deep Learning Using Random Matrix Theory [4.00671924018776]
深層ニューラルネットワーク(DNN)のトレーニングにおけるランダム行列理論(RMT)の適用について検討する。
数値計算の結果,DNNとCNNの精度は低下せず,パラメータの大幅な削減につながることが明らかとなった。
この結果から,より効率的かつ正確なディープラーニングモデル構築のためのRTTの実践的応用に関する貴重な知見が得られた。
論文 参考訳(メタデータ) (2023-10-04T21:17:31Z) - Enhancing Energy Efficiency and Reliability in Autonomous Systems
Estimation using Neuromorphic Approach [0.0]
本研究ではスパイク符号化理論とスパイクニューラルネットワーク(SNN)に基づく推定フレームワークの導入に焦点をあてる。
本稿では,SNNに基づくKalmanフィルタ(KF)を提案する。
改良型スライディング・イノベーション・フィルタ(MSIF)に基づいて,SNN-MSIFと呼ばれるロバストな戦略を提案する。
論文 参考訳(メタデータ) (2023-07-16T06:47:54Z) - Energy-based Out-of-Distribution Detection for Graph Neural Networks [76.0242218180483]
我々は,GNNSafeと呼ばれるグラフ上での学習のための,シンプルで強力で効率的なOOD検出モデルを提案する。
GNNSafeは、最先端技術に対するAUROCの改善を最大17.0%で達成しており、そのような未開発領域では単純だが強力なベースラインとして機能する可能性がある。
論文 参考訳(メタデータ) (2023-02-06T16:38:43Z) - Linearity Grafting: Relaxed Neuron Pruning Helps Certifiable Robustness [172.61581010141978]
証明可能な堅牢性は、安全クリティカルなシナリオでディープニューラルネットワーク(DNN)を採用する上で望ましい特性である。
線形性の適切なレベルを「グラフト」することで、神経細胞を戦略的に操作する新しいソリューションを提案する。
論文 参考訳(メタデータ) (2022-06-15T22:42:29Z) - Comparative Analysis of Interval Reachability for Robust Implicit and
Feedforward Neural Networks [64.23331120621118]
我々は、暗黙的ニューラルネットワーク(INN)の堅牢性を保証するために、区間到達可能性分析を用いる。
INNは暗黙の方程式をレイヤとして使用する暗黙の学習モデルのクラスである。
提案手法は, INNに最先端の区間境界伝搬法を適用するよりも, 少なくとも, 一般的には, 有効であることを示す。
論文 参考訳(メタデータ) (2022-04-01T03:31:27Z) - Batch Normalization Increases Adversarial Vulnerability and Decreases
Adversarial Transferability: A Non-Robust Feature Perspective [91.5105021619887]
バッチ正規化(BN)は、現代のディープニューラルネットワーク(DNN)で広く使われている。
BNは、対向ロバスト性を犠牲にしてモデル精度を高めることが観察された。
BNが主にロバスト特徴(RF)と非ロバスト特徴(NRF)の学習を好んでいるかどうかは不明である。
論文 参考訳(メタデータ) (2020-10-07T10:24:33Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。