論文の概要: EPSILON: Adaptive Fault Mitigation in Approximate Deep Neural Network using Statistical Signatures
- arxiv url: http://arxiv.org/abs/2504.20074v1
- Date: Thu, 24 Apr 2025 20:37:37 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-02 19:15:54.562776
- Title: EPSILON: Adaptive Fault Mitigation in Approximate Deep Neural Network using Statistical Signatures
- Title(参考訳): EPSILON:統計信号を用いた近似型深部ニューラルネットワークの適応的故障軽減
- Authors: Khurram Khalil, Khaza Anuarul Hoque,
- Abstract要約: 我々は、ディープニューラルネットワークアクセラレータ(AxDNN)における効率的な障害検出と緩和のための軽量フレームワークであるEPSILONを紹介する。
本フレームワークでは,非パラメトリックなパターンマッチングアルゴリズムを導入し,通常の実行を中断することなく一定時間故障検出を実現する。
EPSILONは、重量分布と層臨界度の統計解析に基づいて緩和戦略をインテリジェントに調整することで、モデルの精度を維持する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The increasing adoption of approximate computing in deep neural network accelerators (AxDNNs) promises significant energy efficiency gains. However, permanent faults in AxDNNs can severely degrade their performance compared to their accurate counterparts (AccDNNs). Traditional fault detection and mitigation approaches, while effective for AccDNNs, introduce substantial overhead and latency, making them impractical for energy-constrained real-time deployment. To address this, we introduce EPSILON, a lightweight framework that leverages pre-computed statistical signatures and layer-wise importance metrics for efficient fault detection and mitigation in AxDNNs. Our framework introduces a novel non-parametric pattern-matching algorithm that enables constant-time fault detection without interrupting normal execution while dynamically adapting to different network architectures and fault patterns. EPSILON maintains model accuracy by intelligently adjusting mitigation strategies based on a statistical analysis of weight distribution and layer criticality while preserving the energy benefits of approximate computing. Extensive evaluations across various approximate multipliers, AxDNN architectures, popular datasets (MNIST, CIFAR-10, CIFAR-100, ImageNet-1k), and fault scenarios demonstrate that EPSILON maintains 80.05\% accuracy while offering 22\% improvement in inference time and 28\% improvement in energy efficiency, establishing EPSILON as a practical solution for deploying reliable AxDNNs in safety-critical edge applications.
- Abstract(参考訳): ディープニューラルネットワークアクセラレータ(AxDNN)における近似コンピューティングの採用の増加により、エネルギー効率の大幅な向上が期待できる。
しかしながら、AxDNNの永久的欠陥は、正確な欠点(AccDNN)と比較して、その性能を著しく低下させることができる。
従来の障害検出と緩和アプローチは、AccDNNに有効だが、かなりのオーバーヘッドとレイテンシを導入し、エネルギー制約のあるリアルタイムデプロイメントでは実用的ではない。
そこで本稿では,AxDNNの高精度な故障検出と緩和のために,事前計算された統計的シグネチャとレイヤ単位の重要度を利用する軽量フレームワークであるEPSILONを紹介する。
本フレームワークでは,異なるネットワークアーキテクチャや障害パターンに動的に適応しながら,通常の実行を中断することなく一定時間故障検出が可能な,新しい非パラメトリックパターンマッチングアルゴリズムを導入している。
EPSILONは、近似計算のエネルギー利益を保ちながら、重量分布と層臨界度の統計的解析に基づいて緩和戦略をインテリジェントに調整し、モデルの精度を維持する。
様々な近似乗算器、AxDNNアーキテクチャ、一般的なデータセット(MNIST、CIFAR-10、CIFAR-100、ImageNet-1k)、障害シナリオの広範な評価は、ESPILONが80.05 %の精度を維持し、22 %の推論時間の改善と28 %のエネルギー効率向上を提供し、安全で重要なエッジアプリケーションに信頼性の高いAxDNNをデプロイするための実用的なソリューションとしてESPILONを確立することを証明している。
関連論文リスト
- Evidential Uncertainty Probes for Graph Neural Networks [3.5169632430086315]
グラフニューラルネットワーク(GNN)における不確実性定量化のためのプラグアンドプレイフレームワークを提案する。
Evidential Probing Network (EPN) は、学習した表現から証拠を抽出するために軽量なMulti-Layer-Perceptron (MLP) ヘッドを使用する。
EPN-regは、正確で効率的な不確実性定量化において最先端のパフォーマンスを実現し、現実世界のデプロイメントに適している。
論文 参考訳(メタデータ) (2025-03-11T07:00:54Z) - Adaptive Calibration: A Unified Conversion Framework of Spiking Neural Network [1.5215973379400674]
スパイキングニューラルネットワーク(SNN)は、従来のニューラルネットワーク(ANN)の代替としてエネルギー効率が高いと見なされる
変換されたSNNの性能と効率を大幅に向上させる一貫した学習自由変換フレームワークを提案する。
論文 参考訳(メタデータ) (2024-12-18T09:38:54Z) - Deep-Unrolling Multidimensional Harmonic Retrieval Algorithms on Neuromorphic Hardware [78.17783007774295]
本稿では,高精度かつエネルギー効率の高い単発多次元高調波検索のための変換に基づくニューロモルフィックアルゴリズムの可能性について検討する。
複雑な値の畳み込み層と活性化をスパイクニューラルネットワーク(SNN)に変換する新しい手法を開発した。
変換されたSNNは、元のCNNに比べて性能が低下し、ほぼ5倍の電力効率を実現している。
論文 参考訳(メタデータ) (2024-12-05T09:41:33Z) - Evaluating Single Event Upsets in Deep Neural Networks for Semantic Segmentation: an embedded system perspective [1.474723404975345]
本稿では,組み込みディープニューラルネットワーク(DNN)のロバスト性評価について述べる。
本研究は,様々なエンコーダデコーダモデルの層間およびビット間感度をソフトエラーに精査することにより,セグメント化DNNのSEUに対する脆弱性を徹底的に調査する。
本稿では,資源制約によるデプロイメントに適したメモリや計算コストを伴わない,実用的な軽量なエラー軽減手法を提案する。
論文 参考訳(メタデータ) (2024-12-04T18:28:38Z) - Synergistic Development of Perovskite Memristors and Algorithms for Robust Analog Computing [53.77822620185878]
本稿では,ペロブスカイト・メムリスタの製作を同時に最適化し,ロバストなアナログDNNを開発するための相乗的手法を提案する。
BO誘導ノイズインジェクションを利用したトレーニング戦略であるBayesMultiを開発した。
我々の統合されたアプローチは、より深くより広いネットワークでのアナログコンピューティングの使用を可能にし、最大100倍の改善を実現します。
論文 参考訳(メタデータ) (2024-12-03T19:20:08Z) - Asymmetrical estimator for training encapsulated deep photonic neural networks [10.709758849326061]
フォトニックニューラルネットワーク(PNN)は高速なインプロパゲーションと高帯域幅のパラダイムである。
DPNNのカプセル化に適した非対称訓練法(AsyT)を導入する。
AsyTは、最小の読み出し、高速かつ省エネな操作、最小のシステムフットプリントを備えたDPNNのための軽量ソリューションを提供する。
論文 参考訳(メタデータ) (2024-05-28T17:27:20Z) - LitE-SNN: Designing Lightweight and Efficient Spiking Neural Network through Spatial-Temporal Compressive Network Search and Joint Optimization [48.41286573672824]
スパイキングニューラルネットワーク(SNN)は人間の脳の情報処理機構を模倣し、エネルギー効率が高い。
本稿では,空間圧縮と時間圧縮の両方を自動ネットワーク設計プロセスに組み込むLitE-SNNという新しい手法を提案する。
論文 参考訳(メタデータ) (2024-01-26T05:23:11Z) - Fast Exploration of the Impact of Precision Reduction on Spiking Neural
Networks [63.614519238823206]
ターゲットハードウェアがコンピューティングの端に達すると、スパイキングニューラルネットワーク(SNN)が実用的な選択となる。
我々は、近似誤差を伝播するそのようなモデルの能力を生かした探索手法を開発するために、インターヴァル算術(IA)モデルを用いる。
論文 参考訳(メタデータ) (2022-11-22T15:08:05Z) - Comparative Analysis of Interval Reachability for Robust Implicit and
Feedforward Neural Networks [64.23331120621118]
我々は、暗黙的ニューラルネットワーク(INN)の堅牢性を保証するために、区間到達可能性分析を用いる。
INNは暗黙の方程式をレイヤとして使用する暗黙の学習モデルのクラスである。
提案手法は, INNに最先端の区間境界伝搬法を適用するよりも, 少なくとも, 一般的には, 有効であることを示す。
論文 参考訳(メタデータ) (2022-04-01T03:31:27Z) - Bayesian Optimization with Machine Learning Algorithms Towards Anomaly
Detection [66.05992706105224]
本稿では,ベイズ最適化手法を用いた効果的な異常検出フレームワークを提案する。
ISCX 2012データセットを用いて検討したアルゴリズムの性能を評価する。
実験結果から, 精度, 精度, 低コストアラームレート, リコールの観点から, 提案手法の有効性が示された。
論文 参考訳(メタデータ) (2020-08-05T19:29:35Z) - Scaling Equilibrium Propagation to Deep ConvNets by Drastically Reducing
its Gradient Estimator Bias [65.13042449121411]
実際には、EPによって提供される勾配推定によるネットワークのトレーニングは、MNISTよりも難しい視覚タスクにスケールしない。
有限ヌード法に固有のEPの勾配推定のバイアスがこの現象の原因であることを示す。
これらの手法を適用し、非対称な前方および後方接続を持つアーキテクチャをトレーニングし、13.2%のテストエラーを発生させる。
論文 参考訳(メタデータ) (2020-06-06T09:36:07Z) - QUANOS- Adversarial Noise Sensitivity Driven Hybrid Quantization of
Neural Networks [3.2242513084255036]
QUINOSは、逆雑音感度(ANS)に基づく層特異的ハイブリッド量子化を行うフレームワークである
CIFAR10, CIFAR100データセットを用いた実験により, QUINOSは対向ロバスト性の観点から, 均一に量子化された8ビット精度のベースラインより優れていることが示された。
論文 参考訳(メタデータ) (2020-04-22T15:56:31Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。