論文の概要: Adaptive Soft Error Protection for Deep Learning
- arxiv url: http://arxiv.org/abs/2407.19664v1
- Date: Mon, 29 Jul 2024 02:54:52 GMT
- ステータス: 処理完了
- システム内更新日: 2024-07-30 15:16:04.593834
- Title: Adaptive Soft Error Protection for Deep Learning
- Title(参考訳): 深層学習のための適応型ソフトエラー対策
- Authors: Xinghua Xue, Cheng Liu,
- Abstract要約: 我々は,個々の入力の計算要求に応じて保護を調整できる適応型ソフトエラー保護戦略を導入する。
我々の戦略は、システムの信頼性を損なうことなく、ソフトエラー保護のオーバーヘッドを平均46.9%削減する。
- 参考スコア(独自算出の注目度): 3.6986592268435605
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: The rising incidence of soft errors in hardware systems represents a considerable risk to the reliability of deep learning systems and can precipitate severe malfunctions. Although essential, soft error mitigation can impose substantial costs on deep learning systems that are inherently demanding in terms of computation and memory. Previous research has primarily explored variations in vulnerability among different components of computing engines or neural networks, aiming for selective protection to minimize protection overhead. Our approach diverges from these studies by recognizing that the susceptibility of deep learning tasks to soft errors is heavily input-dependent. Notably, some inputs are simpler for deep learning models and inherently exhibit greater tolerance to soft errors. Conversely, more complex inputs are prone to soft error impact. Based on these insights, we introduce an adaptive soft error protection strategy that tailors protection to the computational demands of individual inputs. To implement this strategy, we develop a metric for assessing the complexity of inputs and deploy a lightweight machine learning algorithm to gauge input difficulty. Subsequently, we employ robust protection for challenging inputs and minimal protection for simpler ones. Our experimental evaluation across diverse datasets and deep learning tasks reveals that our adaptive strategy reduces the soft error protection overhead by an average of 46.9%, without compromising system reliability.
- Abstract(参考訳): ハードウェアシステムにおけるソフトエラーの発生は、ディープラーニングシステムの信頼性にかなりのリスクをもたらし、深刻な故障を発生させる可能性がある。
ソフトエラーの緩和は必須ではあるが、計算とメモリの点で本質的に要求されるディープラーニングシステムにかなりのコストを課す可能性がある。
従来の研究は、主に、保護オーバーヘッドを最小限に抑えるために選択的な保護を目的とした、コンピューティングエンジンやニューラルネットワークのさまざまなコンポーネント間の脆弱性のバリエーションを調査してきた。
本手法は,深層学習タスクのソフトエラーに対する感受性が入力依存性が大きいことを認識することによって,これらの研究から分岐する。
特に、いくつかの入力は深層学習モデルでは単純で、本質的にソフトエラーに対する耐性が高い。
逆に、より複雑な入力はソフトエラーの影響を受けやすい。
これらの知見に基づいて,個々の入力の計算要求に応じて保護を調整できる適応型ソフトエラー保護戦略を導入する。
この戦略を実現するために、入力の複雑さを評価するためのメトリクスを開発し、入力の難易度を評価するための軽量機械学習アルゴリズムをデプロイする。
続いて、挑戦的な入力に対する堅牢な保護と、より単純な入力に対する最小限の保護を採用します。
各種データセットおよびディープラーニングタスクに対する実験評価の結果,適応戦略により,システムの信頼性を損なうことなく,ソフトエラー保護オーバーヘッドを平均46.9%削減できることがわかった。
関連論文リスト
- DFEPT: Data Flow Embedding for Enhancing Pre-Trained Model Based Vulnerability Detection [7.802093464108404]
本稿では,脆弱性検出タスクにおける事前学習モデルの性能向上を目的としたデータフロー埋め込み手法を提案する。
具体的には,関数レベルのソースコードからデータフローグラフを解析し,DFGのノード特性として変数のデータ型を使用する。
我々の研究は、DFEPTが事前訓練されたモデルに効果的な脆弱性セマンティック情報を提供し、Devignデータセットで64.97%、Revealデータセットで47.9%のF1スコアを達成できることを示している。
論文 参考訳(メタデータ) (2024-10-24T07:05:07Z) - Analyzing Adversarial Inputs in Deep Reinforcement Learning [53.3760591018817]
本稿では, 正当性検証のレンズを用いて, 逆入力の特性を包括的に解析する。
このような摂動に対する感受性に基づいてモデルを分類するために、新しい計量である逆数率(Adversarial Rate)を導入する。
本分析は, 直交入力が所定のDRLシステムの安全性にどのように影響するかを実証的に示す。
論文 参考訳(メタデータ) (2024-02-07T21:58:40Z) - Cross-Layer Optimization for Fault-Tolerant Deep Learning [17.724727744611535]
本稿では、各ニューロンとビット間の深層学習の脆弱性差を特徴付けるとともに、その脆弱性差を利用してディープラーニング処理コンポーネントの選択的保護を実現することを提案する。
我々は,アルゴリズム層,アーキテクチャ層,回路層において相関する層間設計パラメータを協調最適化するためにベイズ最適化手法を用いる。
論文 参考訳(メタデータ) (2023-12-21T11:35:45Z) - DCDetector: An IoT terminal vulnerability mining system based on
distributed deep ensemble learning under source code representation [2.561778620560749]
この研究の目的は、C/C++のような高レベルの言語のソースコードの脆弱性をインテリジェントに検出することである。
これにより、ソースコードのセンシティブな文関連スライスをコード表現し、分散深層学習モデルの設計により脆弱性を検出することができる。
実験により,従来の静的解析の偽陽性率を低減し,機械学習の性能と精度を向上させることができることがわかった。
論文 参考訳(メタデータ) (2022-11-29T14:19:14Z) - Improving robustness of jet tagging algorithms with adversarial training [56.79800815519762]
本研究では,フレーバータグ付けアルゴリズムの脆弱性について,敵攻撃による検証を行った。
シミュレーション攻撃の影響を緩和する対人訓練戦略を提案する。
論文 参考訳(メタデータ) (2022-03-25T19:57:19Z) - On Deep Learning with Label Differential Privacy [54.45348348861426]
ラベルは機密性があり、保護されるべきであるとするマルチクラス分類について検討する。
本稿では,ラベル差分プライバシを用いたディープニューラルネットワークのトレーニングアルゴリズムを提案し,いくつかのデータセットで評価を行う。
論文 参考訳(メタデータ) (2021-02-11T15:09:06Z) - Increasing the Confidence of Deep Neural Networks by Coverage Analysis [71.57324258813674]
本稿では、異なる安全でない入力に対してモデルを強化するために、カバレッジパラダイムに基づく軽量な監視アーキテクチャを提案する。
実験結果から,提案手法は強力な対向例とアウト・オブ・ディストリビューション・インプットの両方を検出するのに有効であることが示唆された。
論文 参考訳(メタデータ) (2021-01-28T16:38:26Z) - Attribute-Guided Adversarial Training for Robustness to Natural
Perturbations [64.35805267250682]
本稿では,属性空間への分類器の露出を最大化するために,新しいサンプルを生成することを学習する逆学習手法を提案する。
我々のアプローチは、ディープニューラルネットワークが自然に発生する摂動に対して堅牢であることを可能にする。
論文 参考訳(メタデータ) (2020-12-03T10:17:30Z) - Learning Adaptive Loss for Robust Learning with Noisy Labels [59.06189240645958]
ロバスト損失は、堅牢な学習問題を扱うための重要な戦略である。
本稿では,強靭なハイパーチューニングが可能なメタ学習手法を提案する。
4種類のSOTA損失関数は, 最小化, 一般利用, 有効性を示す。
論文 参考訳(メタデータ) (2020-02-16T00:53:37Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。