論文の概要: Crafting Adversarial Examples for Deep Learning Based Prognostics
(Extended Version)
- arxiv url: http://arxiv.org/abs/2009.10149v2
- Date: Mon, 28 Sep 2020 15:26:35 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-16 03:47:09.880095
- Title: Crafting Adversarial Examples for Deep Learning Based Prognostics
(Extended Version)
- Title(参考訳): 深層学習に基づく予後予測のための逆行例の作成(拡張版)
- Authors: Gautam Raj Mode, Khaza Anuarul Hoque
- Abstract要約: State-of-the-the-the-art Prognostics and Health Management (PHM)システムには、Deep Learning (DL)アルゴリズムとInternet of Things (IoT)デバイスが組み込まれている。
本稿では,コンピュータビジョン領域からの逆例作成手法を採用し,PHM領域に適用する。
我々は、NASAのターボファンエンジンデータセットを用いて、敵攻撃の影響を評価する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In manufacturing, unexpected failures are considered a primary operational
risk, as they can hinder productivity and can incur huge losses.
State-of-the-art Prognostics and Health Management (PHM) systems incorporate
Deep Learning (DL) algorithms and Internet of Things (IoT) devices to ascertain
the health status of equipment, and thus reduce the downtime, maintenance cost
and increase the productivity. Unfortunately, IoT sensors and DL algorithms,
both are vulnerable to cyber attacks, and hence pose a significant threat to
PHM systems. In this paper, we adopt the adversarial example crafting
techniques from the computer vision domain and apply them to the PHM domain.
Specifically, we craft adversarial examples using the Fast Gradient Sign Method
(FGSM) and Basic Iterative Method (BIM) and apply them on the Long Short-Term
Memory (LSTM), Gated Recurrent Unit (GRU), and Convolutional Neural Network
(CNN) based PHM models. We evaluate the impact of adversarial attacks using
NASA's turbofan engine dataset. The obtained results show that all the
evaluated PHM models are vulnerable to adversarial attacks and can cause a
serious defect in the remaining useful life estimation. The obtained results
also show that the crafted adversarial examples are highly transferable and may
cause significant damages to PHM systems.
- Abstract(参考訳): 製造において予期せぬ失敗は、生産性を阻害し、大きな損失をもたらす可能性があるため、主要な運用上のリスクとみなされる。
最先端のPrognostics and Health Management (PHM)システムには、Deep Learning (DL)アルゴリズムとInternet of Things (IoT)デバイスが組み込まれ、機器の健康状態を確認し、ダウンタイム、メンテナンスコストを削減し、生産性を向上させる。
残念ながら、IoTセンサーとDLアルゴリズムはどちらもサイバー攻撃に弱いため、PHMシステムに重大な脅威をもたらす。
本稿では,コンピュータビジョン領域からの逆例作成手法を採用し,PHM領域に適用する。
具体的には,FGSM (Fast Gradient Sign Method) とBIM (Basic Iterative Method) を用いて,Long Short-Term Memory (LSTM), Gated Recurrent Unit (GRU), Convolutional Neural Network (CNN) を用いたPHMモデルに適用する。
我々は、NASAのターボファンエンジンデータセットを用いて、敵攻撃の影響を評価する。
その結果, 評価されたPHMモデルはすべて, 敵攻撃に対して脆弱であり, 残りの有効寿命推定に深刻な欠陥を生じさせる可能性が示唆された。
以上の結果から, 加工した対向体は高い伝達性を有し, PHM系に大きな損傷を与える可能性が示唆された。
関連論文リスト
- Enhancing robustness of data-driven SHM models: adversarial training with circle loss [4.619717316983647]
構造的健康モニタリング(SHM)は、航空宇宙、民間、機械的インフラの安全と信頼性を守るために重要である。
機械学習ベースのデータ駆動アプローチは、センサーと計算能力の進歩によりSHMで人気を博している。
本稿では,防御のための対角的訓練手法を提案する。これは円損失を利用して,トレーニング中の特徴間の距離を最適化し,事例を意思決定境界から遠ざける。
論文 参考訳(メタデータ) (2024-06-20T11:55:39Z) - Analyzing Adversarial Inputs in Deep Reinforcement Learning [53.3760591018817]
本稿では, 正当性検証のレンズを用いて, 逆入力の特性を包括的に解析する。
このような摂動に対する感受性に基づいてモデルを分類するために、新しい計量である逆数率(Adversarial Rate)を導入する。
本分析は, 直交入力が所定のDRLシステムの安全性にどのように影響するかを実証的に示す。
論文 参考訳(メタデータ) (2024-02-07T21:58:40Z) - On the Sensitivity of Deep Load Disaggregation to Adversarial Attacks [2.389598109913753]
敵対的攻撃は、コンピュータビジョンや音声認識のような領域において重大な脅威であることが証明されている。
本稿では,FGSM(Fast Gradient Sign Method)を用いて2つのCNNベースのNILMベースラインに入力シーケンスを摂動させる手法を提案する。
以上の結果から,これらのモデルの脆弱性,特にF1スコアの平均20%低下を示すS2Pモデルが示唆された。
論文 参考訳(メタデータ) (2023-07-14T13:10:01Z) - RobustPdM: Designing Robust Predictive Maintenance against Adversarial
Attacks [0.0]
対人攻撃はRUL予測の深刻な欠陥(最大11倍)を引き起こす可能性を示し、3Xによる最先端のPdM攻撃の有効性を上回った。
また,敵攻撃を防御する新たな対人訓練法を提案する。
論文 参考訳(メタデータ) (2023-01-25T20:49:12Z) - DODEM: DOuble DEfense Mechanism Against Adversarial Attacks Towards
Secure Industrial Internet of Things Analytics [8.697883716452385]
I-IoT環境における敵攻撃の検出と軽減のための二重防御機構を提案する。
まず、新規性検出アルゴリズムを用いて、サンプルに対して逆攻撃があるかどうかを検知する。
攻撃があった場合、敵の再訓練はより堅牢なモデルを提供する一方、通常のサンプルに対して標準的な訓練を適用する。
論文 参考訳(メタデータ) (2023-01-23T22:10:40Z) - Adversarial training with informed data selection [53.19381941131439]
アドリアリトレーニングは、これらの悪意のある攻撃からネットワークを守るための最も効率的なソリューションである。
本研究では,ミニバッチ学習に適用すべきデータ選択戦略を提案する。
シミュレーションの結果,ロバスト性および標準精度に関して良好な妥協が得られることがわかった。
論文 参考訳(メタデータ) (2023-01-07T12:09:50Z) - Robust Trajectory Prediction against Adversarial Attacks [84.10405251683713]
ディープニューラルネットワーク(DNN)を用いた軌道予測は、自律運転システムにおいて不可欠な要素である。
これらの手法は敵の攻撃に対して脆弱であり、衝突などの重大な結果をもたらす。
本研究では,敵対的攻撃に対する軌道予測モデルを保護するための2つの重要な要素を同定する。
論文 参考訳(メタデータ) (2022-07-29T22:35:05Z) - Reducing Catastrophic Forgetting in Self Organizing Maps with
Internally-Induced Generative Replay [67.50637511633212]
生涯学習エージェントは、パターン知覚データの無限のストリームから継続的に学習することができる。
適応するエージェントを構築する上での歴史的難しさの1つは、ニューラルネットワークが新しいサンプルから学ぶ際に、以前取得した知識を維持するのに苦労していることである。
この問題は破滅的な忘れ(干渉)と呼ばれ、今日の機械学習の領域では未解決の問題のままである。
論文 参考訳(メタデータ) (2021-12-09T07:11:14Z) - On Adversarial Vulnerability of PHM algorithms: An Initial Study [2.2559617939136505]
時系列センサ計測データに関連するいくつかの特徴を考慮し,PHMアルゴリズムの攻撃戦略を検討する。
実世界の2つのPHMアプリケーションを用いて、攻撃戦略を検証するとともに、PHMアルゴリズムが実際に敵攻撃に対して脆弱であることを実証する。
論文 参考訳(メタデータ) (2021-10-14T15:35:41Z) - Federated Learning with Unreliable Clients: Performance Analysis and
Mechanism Design [76.29738151117583]
Federated Learning(FL)は、分散クライアント間で効果的な機械学習モデルをトレーニングするための有望なツールとなっている。
しかし、低品質のモデルは信頼性の低いクライアントによってアグリゲータサーバにアップロードすることができ、劣化やトレーニングの崩壊につながる。
クライアントの信頼できない振る舞いをモデル化し、このようなセキュリティリスクを軽減するための防御メカニズムを提案する。
論文 参考訳(メタデータ) (2021-05-10T08:02:27Z) - Adversarial Attacks on Deep Learning Based Power Allocation in a Massive
MIMO Network [62.77129284830945]
本稿では,大規模なマルチインプット・マルチアウトプット(MAMIMO)ネットワークのダウンリンクにおいて,逆攻撃がDLベースの電力割り当てを損なう可能性があることを示す。
我々はこれらの攻撃のパフォーマンスをベンチマークし、ニューラルネットワーク(NN)の入力に小さな摂動がある場合、ホワイトボックス攻撃は最大86%まで実現不可能な解決策をもたらすことを示した。
論文 参考訳(メタデータ) (2021-01-28T16:18:19Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。