論文の概要: Adaptive Soft Error Protection for Neural Network Processing
- arxiv url: http://arxiv.org/abs/2407.19664v2
- Date: Tue, 25 Feb 2025 10:05:51 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-02-26 15:18:08.639043
- Title: Adaptive Soft Error Protection for Neural Network Processing
- Title(参考訳): ニューラルネットワーク処理のための適応型ソフトエラー対策
- Authors: Xinghua Xue, Cheng Liu, Feng Min, Yinhe Han,
- Abstract要約: ニューラルネットワーク(NN)におけるソフトエラーの緩和は、しばしば計算オーバーヘッドを著しく発生させる。
従来の手法は主にNNコンポーネント間の静的な脆弱性のバリエーションを探索していた。
本稿では、入力やコンポーネント固有の脆弱性をソフトエラーにキャプチャできる軽量グラフニューラルネットワーク(GNN)モデルを提案する。
- 参考スコア(独自算出の注目度): 6.7356731848370295
- License:
- Abstract: Mitigating soft errors in neural networks (NNs) often incurs significant computational overhead. Traditional methods mainly explored static vulnerability variations across NN components, employing selective protection to minimize costs. In contrast, this work reveals that NN vulnerability is also input-dependent, exhibiting dynamic variations at runtime. To this end, we propose a lightweight graph neural network (GNN) model capable of capturing input- and component-specific vulnerability to soft errors. This model facilitates runtime vulnerability prediction, enabling an adaptive protection strategy that dynamically adjusts to varying vulnerabilities. The approach complements classical fault-tolerant techniques by tailoring protection efforts based on real-time vulnerability assessments. Experimental results across diverse datasets and NNs demonstrate that our adaptive protection method achieves a 42.12\% average reduction in computational overhead compared to prior static vulnerability-based approaches, without compromising reliability.
- Abstract(参考訳): ニューラルネットワーク(NN)におけるソフトエラーの緩和は、しばしば計算オーバーヘッドを著しく発生させる。
従来の手法は主にNNコンポーネント間の静的な脆弱性のばらつきを調査し、コストを最小限に抑えるために選択的保護を採用した。
対照的に、この研究はNNの脆弱性も入力依存であり、実行時に動的に変化することを示している。
そこで本研究では,入力およびコンポーネント固有の脆弱性をソフトエラーにキャプチャ可能な,軽量グラフニューラルネットワーク(GNN)モデルを提案する。
このモデルは実行時の脆弱性予測を容易にし、様々な脆弱性に動的に適応的な保護戦略を可能にする。
このアプローチは、リアルタイムの脆弱性評価に基づいて保護努力を調整することで、古典的なフォールトトレラントテクニックを補完する。
各種データセットとNN間の実験結果から,我々の適応的保護手法は,信頼性を損なうことなく,従来の静的脆弱性ベースのアプローチに比べて平均42.12倍の計算オーバーヘッド削減を実現していることが示された。
関連論文リスト
- DFEPT: Data Flow Embedding for Enhancing Pre-Trained Model Based Vulnerability Detection [7.802093464108404]
本稿では,脆弱性検出タスクにおける事前学習モデルの性能向上を目的としたデータフロー埋め込み手法を提案する。
具体的には,関数レベルのソースコードからデータフローグラフを解析し,DFGのノード特性として変数のデータ型を使用する。
我々の研究は、DFEPTが事前訓練されたモデルに効果的な脆弱性セマンティック情報を提供し、Devignデータセットで64.97%、Revealデータセットで47.9%のF1スコアを達成できることを示している。
論文 参考訳(メタデータ) (2024-10-24T07:05:07Z) - Analyzing Adversarial Inputs in Deep Reinforcement Learning [53.3760591018817]
本稿では, 正当性検証のレンズを用いて, 逆入力の特性を包括的に解析する。
このような摂動に対する感受性に基づいてモデルを分類するために、新しい計量である逆数率(Adversarial Rate)を導入する。
本分析は, 直交入力が所定のDRLシステムの安全性にどのように影響するかを実証的に示す。
論文 参考訳(メタデータ) (2024-02-07T21:58:40Z) - Cross-Layer Optimization for Fault-Tolerant Deep Learning [17.724727744611535]
本稿では、各ニューロンとビット間の深層学習の脆弱性差を特徴付けるとともに、その脆弱性差を利用してディープラーニング処理コンポーネントの選択的保護を実現することを提案する。
我々は,アルゴリズム層,アーキテクチャ層,回路層において相関する層間設計パラメータを協調最適化するためにベイズ最適化手法を用いる。
論文 参考訳(メタデータ) (2023-12-21T11:35:45Z) - DCDetector: An IoT terminal vulnerability mining system based on
distributed deep ensemble learning under source code representation [2.561778620560749]
この研究の目的は、C/C++のような高レベルの言語のソースコードの脆弱性をインテリジェントに検出することである。
これにより、ソースコードのセンシティブな文関連スライスをコード表現し、分散深層学習モデルの設計により脆弱性を検出することができる。
実験により,従来の静的解析の偽陽性率を低減し,機械学習の性能と精度を向上させることができることがわかった。
論文 参考訳(メタデータ) (2022-11-29T14:19:14Z) - Improving robustness of jet tagging algorithms with adversarial training [56.79800815519762]
本研究では,フレーバータグ付けアルゴリズムの脆弱性について,敵攻撃による検証を行った。
シミュレーション攻撃の影響を緩和する対人訓練戦略を提案する。
論文 参考訳(メタデータ) (2022-03-25T19:57:19Z) - On Deep Learning with Label Differential Privacy [54.45348348861426]
ラベルは機密性があり、保護されるべきであるとするマルチクラス分類について検討する。
本稿では,ラベル差分プライバシを用いたディープニューラルネットワークのトレーニングアルゴリズムを提案し,いくつかのデータセットで評価を行う。
論文 参考訳(メタデータ) (2021-02-11T15:09:06Z) - Increasing the Confidence of Deep Neural Networks by Coverage Analysis [71.57324258813674]
本稿では、異なる安全でない入力に対してモデルを強化するために、カバレッジパラダイムに基づく軽量な監視アーキテクチャを提案する。
実験結果から,提案手法は強力な対向例とアウト・オブ・ディストリビューション・インプットの両方を検出するのに有効であることが示唆された。
論文 参考訳(メタデータ) (2021-01-28T16:38:26Z) - Attribute-Guided Adversarial Training for Robustness to Natural
Perturbations [64.35805267250682]
本稿では,属性空間への分類器の露出を最大化するために,新しいサンプルを生成することを学習する逆学習手法を提案する。
我々のアプローチは、ディープニューラルネットワークが自然に発生する摂動に対して堅牢であることを可能にする。
論文 参考訳(メタデータ) (2020-12-03T10:17:30Z) - Learning Adaptive Loss for Robust Learning with Noisy Labels [59.06189240645958]
ロバスト損失は、堅牢な学習問題を扱うための重要な戦略である。
本稿では,強靭なハイパーチューニングが可能なメタ学習手法を提案する。
4種類のSOTA損失関数は, 最小化, 一般利用, 有効性を示す。
論文 参考訳(メタデータ) (2020-02-16T00:53:37Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。