論文の概要: Adaptive Soft Error Protection for Deep Learning
- arxiv url: http://arxiv.org/abs/2407.19664v1
- Date: Mon, 29 Jul 2024 02:54:52 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-07-30 15:16:04.593834
- Title: Adaptive Soft Error Protection for Deep Learning
- Title(参考訳): 深層学習のための適応型ソフトエラー対策
- Authors: Xinghua Xue, Cheng Liu,
- Abstract要約: 我々は,個々の入力の計算要求に応じて保護を調整できる適応型ソフトエラー保護戦略を導入する。
我々の戦略は、システムの信頼性を損なうことなく、ソフトエラー保護のオーバーヘッドを平均46.9%削減する。
- 参考スコア(独自算出の注目度): 3.6986592268435605
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: The rising incidence of soft errors in hardware systems represents a considerable risk to the reliability of deep learning systems and can precipitate severe malfunctions. Although essential, soft error mitigation can impose substantial costs on deep learning systems that are inherently demanding in terms of computation and memory. Previous research has primarily explored variations in vulnerability among different components of computing engines or neural networks, aiming for selective protection to minimize protection overhead. Our approach diverges from these studies by recognizing that the susceptibility of deep learning tasks to soft errors is heavily input-dependent. Notably, some inputs are simpler for deep learning models and inherently exhibit greater tolerance to soft errors. Conversely, more complex inputs are prone to soft error impact. Based on these insights, we introduce an adaptive soft error protection strategy that tailors protection to the computational demands of individual inputs. To implement this strategy, we develop a metric for assessing the complexity of inputs and deploy a lightweight machine learning algorithm to gauge input difficulty. Subsequently, we employ robust protection for challenging inputs and minimal protection for simpler ones. Our experimental evaluation across diverse datasets and deep learning tasks reveals that our adaptive strategy reduces the soft error protection overhead by an average of 46.9%, without compromising system reliability.
- Abstract(参考訳): ハードウェアシステムにおけるソフトエラーの発生は、ディープラーニングシステムの信頼性にかなりのリスクをもたらし、深刻な故障を発生させる可能性がある。
ソフトエラーの緩和は必須ではあるが、計算とメモリの点で本質的に要求されるディープラーニングシステムにかなりのコストを課す可能性がある。
従来の研究は、主に、保護オーバーヘッドを最小限に抑えるために選択的な保護を目的とした、コンピューティングエンジンやニューラルネットワークのさまざまなコンポーネント間の脆弱性のバリエーションを調査してきた。
本手法は,深層学習タスクのソフトエラーに対する感受性が入力依存性が大きいことを認識することによって,これらの研究から分岐する。
特に、いくつかの入力は深層学習モデルでは単純で、本質的にソフトエラーに対する耐性が高い。
逆に、より複雑な入力はソフトエラーの影響を受けやすい。
これらの知見に基づいて,個々の入力の計算要求に応じて保護を調整できる適応型ソフトエラー保護戦略を導入する。
この戦略を実現するために、入力の複雑さを評価するためのメトリクスを開発し、入力の難易度を評価するための軽量機械学習アルゴリズムをデプロイする。
続いて、挑戦的な入力に対する堅牢な保護と、より単純な入力に対する最小限の保護を採用します。
各種データセットおよびディープラーニングタスクに対する実験評価の結果,適応戦略により,システムの信頼性を損なうことなく,ソフトエラー保護オーバーヘッドを平均46.9%削減できることがわかった。
関連論文リスト
- Evaluating Single Event Upsets in Deep Neural Networks for Semantic Segmentation: an embedded system perspective [1.474723404975345]
本稿では,組み込みディープニューラルネットワーク(DNN)のロバスト性評価について述べる。
本研究は,様々なエンコーダデコーダモデルの層間およびビット間感度をソフトエラーに精査することにより,セグメント化DNNのSEUに対する脆弱性を徹底的に調査する。
本稿では,資源制約によるデプロイメントに適したメモリや計算コストを伴わない,実用的な軽量なエラー軽減手法を提案する。
論文 参考訳(メタデータ) (2024-12-04T18:28:38Z) - DFEPT: Data Flow Embedding for Enhancing Pre-Trained Model Based Vulnerability Detection [7.802093464108404]
本稿では,脆弱性検出タスクにおける事前学習モデルの性能向上を目的としたデータフロー埋め込み手法を提案する。
具体的には,関数レベルのソースコードからデータフローグラフを解析し,DFGのノード特性として変数のデータ型を使用する。
我々の研究は、DFEPTが事前訓練されたモデルに効果的な脆弱性セマンティック情報を提供し、Devignデータセットで64.97%、Revealデータセットで47.9%のF1スコアを達成できることを示している。
論文 参考訳(メタデータ) (2024-10-24T07:05:07Z) - A constrained optimization approach to improve robustness of neural networks [1.2338729811609355]
クリーンなデータに対する精度を維持しつつ、敵攻撃に対する堅牢性を向上させるために、ファインチューン事前学習ニューラルネットワークに対する非線形プログラミングに基づく新しいアプローチを提案する。
論文 参考訳(メタデータ) (2024-09-18T18:37:14Z) - Evaluating Model Robustness Using Adaptive Sparse L0 Regularization [5.772716337390152]
敵の例は、機能の最小限のサブセットを変更することで、既存の防御に挑戦します。
現在のL0標準攻撃手法は、精度と効率のトレードオフに直面している。
本稿では,L0ノルムを基準として,新たな,スケーラブルで効果的な逆例生成手法を提案する。
論文 参考訳(メタデータ) (2024-08-28T11:02:23Z) - Analyzing Adversarial Inputs in Deep Reinforcement Learning [53.3760591018817]
本稿では, 正当性検証のレンズを用いて, 逆入力の特性を包括的に解析する。
このような摂動に対する感受性に基づいてモデルを分類するために、新しい計量である逆数率(Adversarial Rate)を導入する。
本分析は, 直交入力が所定のDRLシステムの安全性にどのように影響するかを実証的に示す。
論文 参考訳(メタデータ) (2024-02-07T21:58:40Z) - Cross-Layer Optimization for Fault-Tolerant Deep Learning [17.724727744611535]
本稿では、各ニューロンとビット間の深層学習の脆弱性差を特徴付けるとともに、その脆弱性差を利用してディープラーニング処理コンポーネントの選択的保護を実現することを提案する。
我々は,アルゴリズム層,アーキテクチャ層,回路層において相関する層間設計パラメータを協調最適化するためにベイズ最適化手法を用いる。
論文 参考訳(メタデータ) (2023-12-21T11:35:45Z) - Achieving Constraints in Neural Networks: A Stochastic Augmented
Lagrangian Approach [49.1574468325115]
DNN(Deep Neural Networks)の正規化は、一般化性の向上とオーバーフィッティングの防止に不可欠である。
制約付き最適化問題としてトレーニングプロセスのフレーミングによるDNN正規化に対する新しいアプローチを提案する。
我々はAugmented Lagrangian (SAL) 法を用いて、より柔軟で効率的な正規化機構を実現する。
論文 参考訳(メタデータ) (2023-10-25T13:55:35Z) - Deep Neural Networks Tend To Extrapolate Predictably [51.303814412294514]
ニューラルネットワークの予測は、アウト・オブ・ディストリビューション(OOD)入力に直面した場合、予測不可能で過信される傾向がある。
我々は、入力データがOODになるにつれて、ニューラルネットワークの予測が一定値に向かう傾向があることを観察する。
我々は、OOD入力の存在下でリスクに敏感な意思決定を可能にするために、私たちの洞察を実際に活用する方法を示します。
論文 参考訳(メタデータ) (2023-10-02T03:25:32Z) - DCDetector: An IoT terminal vulnerability mining system based on
distributed deep ensemble learning under source code representation [2.561778620560749]
この研究の目的は、C/C++のような高レベルの言語のソースコードの脆弱性をインテリジェントに検出することである。
これにより、ソースコードのセンシティブな文関連スライスをコード表現し、分散深層学習モデルの設計により脆弱性を検出することができる。
実験により,従来の静的解析の偽陽性率を低減し,機械学習の性能と精度を向上させることができることがわかった。
論文 参考訳(メタデータ) (2022-11-29T14:19:14Z) - A Novel Membership Inference Attack against Dynamic Neural Networks by
Utilizing Policy Networks Information [11.807178385292296]
本稿では,動的NNのユニークなポリシネットワーク機構を活用した,動的NNに対するMI攻撃を提案する。
本手法は,バックボーンファインタニングと情報融合に基づいて,ベースラインアタックや従来のアタックよりも優れた結果が得られる。
論文 参考訳(メタデータ) (2022-10-17T11:51:02Z) - Improved and Interpretable Defense to Transferred Adversarial Examples
by Jacobian Norm with Selective Input Gradient Regularization [31.516568778193157]
ディープニューラルネットワーク(DNN)の堅牢性を改善するために、AT(Adversarial Training)がよく用いられる。
本研究では,ジャコビアンノルムと選択的入力勾配正規化(J-SIGR)に基づくアプローチを提案する。
実験により、提案したJ-SIGRは、転送された敵攻撃に対するロバスト性を向上し、ニューラルネットワークからの予測が容易に解釈できることが示されている。
論文 参考訳(メタデータ) (2022-07-09T01:06:41Z) - Improving robustness of jet tagging algorithms with adversarial training [56.79800815519762]
本研究では,フレーバータグ付けアルゴリズムの脆弱性について,敵攻撃による検証を行った。
シミュレーション攻撃の影響を緩和する対人訓練戦略を提案する。
論文 参考訳(メタデータ) (2022-03-25T19:57:19Z) - Adaptive Feature Alignment for Adversarial Training [56.17654691470554]
CNNは通常、敵攻撃に対して脆弱であり、セキュリティに敏感なアプリケーションに脅威をもたらす。
任意の攻撃強度の特徴を生成するための適応的特徴アライメント(AFA)を提案する。
本手法は任意の攻撃強度の特徴を自動的に整列するように訓練されている。
論文 参考訳(メタデータ) (2021-05-31T17:01:05Z) - Non-Singular Adversarial Robustness of Neural Networks [58.731070632586594]
小さな入力摂動に対する過敏性のため、アドリヤルロバスト性はニューラルネットワークにとって新たな課題となっている。
我々は,データ入力とモデル重みの共振レンズを用いて,ニューラルネットワークの非特異な対角性の概念を定式化する。
論文 参考訳(メタデータ) (2021-02-23T20:59:30Z) - On Deep Learning with Label Differential Privacy [54.45348348861426]
ラベルは機密性があり、保護されるべきであるとするマルチクラス分類について検討する。
本稿では,ラベル差分プライバシを用いたディープニューラルネットワークのトレーニングアルゴリズムを提案し,いくつかのデータセットで評価を行う。
論文 参考訳(メタデータ) (2021-02-11T15:09:06Z) - Increasing the Confidence of Deep Neural Networks by Coverage Analysis [71.57324258813674]
本稿では、異なる安全でない入力に対してモデルを強化するために、カバレッジパラダイムに基づく軽量な監視アーキテクチャを提案する。
実験結果から,提案手法は強力な対向例とアウト・オブ・ディストリビューション・インプットの両方を検出するのに有効であることが示唆された。
論文 参考訳(メタデータ) (2021-01-28T16:38:26Z) - Attribute-Guided Adversarial Training for Robustness to Natural
Perturbations [64.35805267250682]
本稿では,属性空間への分類器の露出を最大化するために,新しいサンプルを生成することを学習する逆学習手法を提案する。
我々のアプローチは、ディープニューラルネットワークが自然に発生する摂動に対して堅牢であることを可能にする。
論文 参考訳(メタデータ) (2020-12-03T10:17:30Z) - Learning Adaptive Loss for Robust Learning with Noisy Labels [59.06189240645958]
ロバスト損失は、堅牢な学習問題を扱うための重要な戦略である。
本稿では,強靭なハイパーチューニングが可能なメタ学習手法を提案する。
4種類のSOTA損失関数は, 最小化, 一般利用, 有効性を示す。
論文 参考訳(メタデータ) (2020-02-16T00:53:37Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。