論文の概要: RobustPdM: Designing Robust Predictive Maintenance against Adversarial
Attacks
- arxiv url: http://arxiv.org/abs/2301.10822v1
- Date: Wed, 25 Jan 2023 20:49:12 GMT
- ステータス: 処理完了
- システム内更新日: 2023-01-27 15:05:32.823898
- Title: RobustPdM: Designing Robust Predictive Maintenance against Adversarial
Attacks
- Title(参考訳): RobustPdM: 敵攻撃に対するロバスト予測保守設計
- Authors: Ayesha Siddique, Ripan Kumar Kundu, Gautam Raj Mode, Khaza Anuarul
Hoque
- Abstract要約: 対人攻撃はRUL予測の深刻な欠陥(最大11倍)を引き起こす可能性を示し、3Xによる最先端のPdM攻撃の有効性を上回った。
また,敵攻撃を防御する新たな対人訓練法を提案する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: The state-of-the-art predictive maintenance (PdM) techniques have shown great
success in reducing maintenance costs and downtime of complicated machines
while increasing overall productivity through extensive utilization of
Internet-of-Things (IoT) and Deep Learning (DL). Unfortunately, IoT sensors and
DL algorithms are both prone to cyber-attacks. For instance, DL algorithms are
known for their susceptibility to adversarial examples. Such adversarial
attacks are vastly under-explored in the PdM domain. This is because the
adversarial attacks in the computer vision domain for classification tasks
cannot be directly applied to the PdM domain for multivariate time series (MTS)
regression tasks. In this work, we propose an end-to-end methodology to design
adversarially robust PdM systems by extensively analyzing the effect of
different types of adversarial attacks and proposing a novel adversarial
defense technique for DL-enabled PdM models. First, we propose novel MTS
Projected Gradient Descent (PGD) and MTS PGD with random restarts (PGD_r)
attacks. Then, we evaluate the impact of MTS PGD and PGD_r along with MTS Fast
Gradient Sign Method (FGSM) and MTS Basic Iterative Method (BIM) on Long
Short-Term Memory (LSTM), Gated Recurrent Unit (GRU), Convolutional Neural
Network (CNN), and Bi-directional LSTM based PdM system. Our results using
NASA's turbofan engine dataset show that adversarial attacks can cause a severe
defect (up to 11X) in the RUL prediction, outperforming the effectiveness of
the state-of-the-art PdM attacks by 3X. Furthermore, we present a novel
approximate adversarial training method to defend against adversarial attacks.
We observe that approximate adversarial training can significantly improve the
robustness of PdM models (up to 54X) and outperforms the state-of-the-art PdM
defense methods by offering 3X more robustness.
- Abstract(参考訳): 最先端の予測メンテナンス(PdM)技術は、IoT(Internet-of-Things)とディープラーニング(DL)の広範な活用を通じて、メンテナンスコストと複雑なマシンのダウンタイムを削減しつつ、全体的な生産性を向上することに成功した。
残念ながら、IoTセンサーとDLアルゴリズムはどちらもサイバー攻撃を受けやすい。
例えば、DLアルゴリズムは敵の例に対する感受性で知られている。
このような敵対的攻撃はPdMドメインでは明らかに過小評価されている。
これは、分類タスクのコンピュータビジョン領域における逆攻撃は、多変量時系列(mts)回帰タスクのpdmドメインに直接適用できないためである。
本研究では,異なる種類の攻撃の影響を広範囲に解析し,DL対応PdMモデルに対する新たな防御手法を提案することによって,逆方向の堅牢なPdMシステムを設計するエンド・ツー・エンド手法を提案する。
まず、ランダム再起動(PGD_r)攻撃を伴う新しいMSSプロジェクテッドグラディエントDescent(PGD)とMSS PGDを提案する。
MTS PGD と PGD_r と MTS Fast Gradient Sign Method (FGSM) と MTS Basic Iterative Method (BIM) がLong Short-Term Memory (LSTM)、Gated Recurrent Unit (GRU)、Convolutional Neural Network (CNN)、双方向LSTMベースのPdMシステムに与える影響を評価する。
nasaのturbofan engineデータセットを用いた結果,敵の攻撃はrulの予測に深刻な欠陥(最大11倍)を生じさせ,最先端のpdm攻撃の効果を3倍に上回った。
さらに, 敵の攻撃から防御するための新しい近似攻撃訓練法を提案する。
我々は, PdMモデルのロバスト性(最大54倍)を大幅に向上し, 3倍のロバスト性を提供することで, 最先端のPdMディフェンス法より優れることを示した。
関連論文リスト
- Untargeted White-box Adversarial Attack with Heuristic Defence Methods
in Real-time Deep Learning based Network Intrusion Detection System [0.0]
Adversarial Machine Learning (AML)では、悪意のあるアクターが機械学習(ML)とディープラーニング(DL)モデルを騙して、誤った予測を生成する。
AMLは新たな研究領域であり、敵の攻撃の詳細な研究に欠かせないものとなっている。
我々は,FGSM(Fast Gradient Sign Method),JSMA(Jacobian Saliency Map Attack),PGD(Projected Gradient Descent),Cerini & Wagner(C&W)の4つの強力な攻撃手法を実装した。
論文 参考訳(メタデータ) (2023-10-05T06:32:56Z) - Avoid Adversarial Adaption in Federated Learning by Multi-Metric
Investigations [55.2480439325792]
Federated Learning(FL)は、分散機械学習モデルのトレーニング、データのプライバシの保護、通信コストの低減、多様化したデータソースによるモデルパフォーマンスの向上を支援する。
FLは、中毒攻撃、標的外のパフォーマンス劣化とターゲットのバックドア攻撃の両方でモデルの整合性を損なうような脆弱性に直面している。
我々は、複数の目的に同時に適応できる、強い適応的敵の概念を新たに定義する。
MESASは、実際のデータシナリオで有効であり、平均オーバーヘッドは24.37秒である。
論文 参考訳(メタデータ) (2023-06-06T11:44:42Z) - Towards Adversarial Realism and Robust Learning for IoT Intrusion
Detection and Classification [0.0]
IoT(Internet of Things)は、重大なセキュリティ上の課題に直面している。
敵の攻撃による脅威の増大は、信頼できる防衛戦略の必要性を回復させる。
本研究は、敵のサイバー攻撃事例が現実的であるために必要な制約の種類について述べる。
論文 参考訳(メタデータ) (2023-01-30T18:00:28Z) - DODEM: DOuble DEfense Mechanism Against Adversarial Attacks Towards
Secure Industrial Internet of Things Analytics [8.697883716452385]
I-IoT環境における敵攻撃の検出と軽減のための二重防御機構を提案する。
まず、新規性検出アルゴリズムを用いて、サンプルに対して逆攻撃があるかどうかを検知する。
攻撃があった場合、敵の再訓練はより堅牢なモデルを提供する一方、通常のサンプルに対して標準的な訓練を適用する。
論文 参考訳(メタデータ) (2023-01-23T22:10:40Z) - Guidance Through Surrogate: Towards a Generic Diagnostic Attack [101.36906370355435]
我々は、攻撃最適化中に局所最小限を避けるための誘導機構を開発し、G-PGAと呼ばれる新たな攻撃に繋がる。
修正された攻撃では、ランダムに再起動したり、多数の攻撃を繰り返したり、最適なステップサイズを検索したりする必要がありません。
効果的な攻撃以上に、G-PGAは敵防御における勾配マスキングによる解離性堅牢性を明らかにするための診断ツールとして用いられる。
論文 参考訳(メタデータ) (2022-12-30T18:45:23Z) - Get your Foes Fooled: Proximal Gradient Split Learning for Defense
against Model Inversion Attacks on IoMT data [5.582293277542012]
本研究では,モデル反転攻撃に対する防御のための近勾配分割学習(PSGL)手法を提案する。
本稿では,勾配マップの復元に近似勾配法を用い,認識性能を向上させるための決定レベル融合戦略を提案する。
論文 参考訳(メタデータ) (2022-01-12T17:01:19Z) - Model-Agnostic Meta-Attack: Towards Reliable Evaluation of Adversarial
Robustness [53.094682754683255]
モデル非依存型メタアタック(MAMA)アプローチにより,より強力な攻撃アルゴリズムを自動検出する。
本手法は、繰り返しニューラルネットワークによってパラメータ化された逆攻撃を学習する。
本研究では,未知の防御を攻撃した場合の学習能力を向上させるために,モデルに依存しない訓練アルゴリズムを開発した。
論文 参考訳(メタデータ) (2021-10-13T13:54:24Z) - A Hamiltonian Monte Carlo Method for Probabilistic Adversarial Attack
and Learning [122.49765136434353]
本稿では,HMCAM (Acumulated Momentum) を用いたハミルトニアンモンテカルロ法を提案する。
また, 対数的対数的対数的学習(Contrastive Adversarial Training, CAT)と呼ばれる新たな生成法を提案し, 対数的例の平衡分布にアプローチする。
いくつかの自然画像データセットと実用システムに関する定量的および定性的な解析により、提案アルゴリズムの優位性が確認された。
論文 参考訳(メタデータ) (2020-10-15T16:07:26Z) - Crafting Adversarial Examples for Deep Learning Based Prognostics
(Extended Version) [0.0]
State-of-the-the-the-art Prognostics and Health Management (PHM)システムには、Deep Learning (DL)アルゴリズムとInternet of Things (IoT)デバイスが組み込まれている。
本稿では,コンピュータビジョン領域からの逆例作成手法を採用し,PHM領域に適用する。
我々は、NASAのターボファンエンジンデータセットを用いて、敵攻撃の影響を評価する。
論文 参考訳(メタデータ) (2020-09-21T19:43:38Z) - Stochastic Security: Adversarial Defense Using Long-Run Dynamics of
Energy-Based Models [82.03536496686763]
敵対的攻撃に対するディープ・ネットワークの脆弱性は、認識とセキュリティの両方の観点から、ディープ・ラーニングの中心的な問題である。
我々は,自然学習型分類器の保護に重点を置き,マルコフ・チェイン・モンテカルロ (MCMC) とエネルギーベースモデル (EBM) を併用して敵の浄化を行った。
本研究は,1)現実的な長期MCMCサンプルを用いたEMMの訓練方法の改善,2)防衛の理論的曖昧さを解消する期待・オフバー・トランスフォーメーション(EOT)ディフェンス,3)自然に訓練された分類器と競争的ディフェンスのための最先端の対人ディフェンス,である。
論文 参考訳(メタデータ) (2020-05-27T17:53:36Z) - Adversarial Distributional Training for Robust Deep Learning [53.300984501078126]
逆行訓練(AT)は、逆行例によるトレーニングデータを増やすことにより、モデルロバスト性を改善する最も効果的な手法の一つである。
既存のAT手法の多くは、敵の例を作らせるために特定の攻撃を採用しており、他の目に見えない攻撃に対する信頼性の低い堅牢性につながっている。
本稿では,ロバストモデル学習のための新しいフレームワークであるADTを紹介する。
論文 参考訳(メタデータ) (2020-02-14T12:36:59Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。