論文の概要: RobustPdM: Designing Robust Predictive Maintenance against Adversarial
Attacks
- arxiv url: http://arxiv.org/abs/2301.10822v2
- Date: Thu, 10 Aug 2023 17:34:58 GMT
- ステータス: 処理完了
- システム内更新日: 2023-08-11 16:28:25.057691
- Title: RobustPdM: Designing Robust Predictive Maintenance against Adversarial
Attacks
- Title(参考訳): RobustPdM: 敵攻撃に対するロバスト予測保守設計
- Authors: Ayesha Siddique, Ripan Kumar Kundu, Gautam Raj Mode, Khaza Anuarul
Hoque
- Abstract要約: 対人攻撃はRUL予測の深刻な欠陥(最大11倍)を引き起こす可能性を示し、3Xによる最先端のPdM攻撃の有効性を上回った。
また,敵攻撃を防御する新たな対人訓練法を提案する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: The state-of-the-art predictive maintenance (PdM) techniques have shown great
success in reducing maintenance costs and downtime of complicated machines
while increasing overall productivity through extensive utilization of
Internet-of-Things (IoT) and Deep Learning (DL). Unfortunately, IoT sensors and
DL algorithms are both prone to cyber-attacks. For instance, DL algorithms are
known for their susceptibility to adversarial examples. Such adversarial
attacks are vastly under-explored in the PdM domain. This is because the
adversarial attacks in the computer vision domain for classification tasks
cannot be directly applied to the PdM domain for multivariate time series (MTS)
regression tasks. In this work, we propose an end-to-end methodology to design
adversarially robust PdM systems by extensively analyzing the effect of
different types of adversarial attacks and proposing a novel adversarial
defense technique for DL-enabled PdM models. First, we propose novel MTS
Projected Gradient Descent (PGD) and MTS PGD with random restarts (PGD_r)
attacks. Then, we evaluate the impact of MTS PGD and PGD_r along with MTS Fast
Gradient Sign Method (FGSM) and MTS Basic Iterative Method (BIM) on Long
Short-Term Memory (LSTM), Gated Recurrent Unit (GRU), Convolutional Neural
Network (CNN), and Bi-directional LSTM based PdM system. Our results using
NASA's turbofan engine dataset show that adversarial attacks can cause a severe
defect (up to 11X) in the RUL prediction, outperforming the effectiveness of
the state-of-the-art PdM attacks by 3X. Furthermore, we present a novel
approximate adversarial training method to defend against adversarial attacks.
We observe that approximate adversarial training can significantly improve the
robustness of PdM models (up to 54X) and outperforms the state-of-the-art PdM
defense methods by offering 3X more robustness.
- Abstract(参考訳): 最先端の予測メンテナンス(PdM)技術は、IoT(Internet-of-Things)とディープラーニング(DL)の広範な活用を通じて、メンテナンスコストと複雑なマシンのダウンタイムを削減しつつ、全体的な生産性を向上することに成功した。
残念ながら、IoTセンサーとDLアルゴリズムはどちらもサイバー攻撃を受けやすい。
例えば、DLアルゴリズムは敵の例に対する感受性で知られている。
このような敵対的攻撃はPdMドメインでは明らかに過小評価されている。
これは、分類タスクのコンピュータビジョン領域における逆攻撃は、多変量時系列(mts)回帰タスクのpdmドメインに直接適用できないためである。
本研究では,異なる種類の攻撃の影響を広範囲に解析し,DL対応PdMモデルに対する新たな防御手法を提案することによって,逆方向の堅牢なPdMシステムを設計するエンド・ツー・エンド手法を提案する。
まず、ランダム再起動(PGD_r)攻撃を伴う新しいMSSプロジェクテッドグラディエントDescent(PGD)とMSS PGDを提案する。
MTS PGD と PGD_r と MTS Fast Gradient Sign Method (FGSM) と MTS Basic Iterative Method (BIM) がLong Short-Term Memory (LSTM)、Gated Recurrent Unit (GRU)、Convolutional Neural Network (CNN)、双方向LSTMベースのPdMシステムに与える影響を評価する。
nasaのturbofan engineデータセットを用いた結果,敵の攻撃はrulの予測に深刻な欠陥(最大11倍)を生じさせ,最先端のpdm攻撃の効果を3倍に上回った。
さらに, 敵の攻撃から防御するための新しい近似攻撃訓練法を提案する。
我々は, PdMモデルのロバスト性(最大54倍)を大幅に向上し, 3倍のロバスト性を提供することで, 最先端のPdMディフェンス法より優れることを示した。
関連論文リスト
- Robust Image Classification: Defensive Strategies against FGSM and PGD Adversarial Attacks [0.0]
敵対的攻撃は、画像分類におけるディープラーニングモデルの堅牢性に重大な脅威をもたらす。
本稿では,ニューラルネットワークのレジリエンスを高めるために,これらの攻撃に対する防御機構を探索し,洗練する。
論文 参考訳(メタデータ) (2024-08-20T02:00:02Z) - Efficient Adversarial Training in LLMs with Continuous Attacks [99.5882845458567]
大規模言語モデル(LLM)は、安全ガードレールをバイパスできる敵攻撃に対して脆弱である。
本稿では,2つの損失からなる高速対向訓練アルゴリズム(C-AdvUL)を提案する。
C-AdvIPOは、対向的に堅牢なアライメントのためのユーティリティデータを必要としない、対向型のIPOである。
論文 参考訳(メタデータ) (2024-05-24T14:20:09Z) - The Pitfalls and Promise of Conformal Inference Under Adversarial Attacks [90.52808174102157]
医療画像や自律運転などの安全クリティカルな応用においては、高い敵の堅牢性を維持し、潜在的敵の攻撃から保護することが不可欠である。
敵対的に訓練されたモデルに固有の不確実性に関して、注目すべき知識ギャップが残っている。
本研究では,共形予測(CP)の性能を標準対向攻撃の文脈で検証することにより,ディープラーニングモデルの不確実性について検討する。
論文 参考訳(メタデータ) (2024-05-14T18:05:19Z) - Avoid Adversarial Adaption in Federated Learning by Multi-Metric
Investigations [55.2480439325792]
Federated Learning(FL)は、分散機械学習モデルのトレーニング、データのプライバシの保護、通信コストの低減、多様化したデータソースによるモデルパフォーマンスの向上を支援する。
FLは、中毒攻撃、標的外のパフォーマンス劣化とターゲットのバックドア攻撃の両方でモデルの整合性を損なうような脆弱性に直面している。
我々は、複数の目的に同時に適応できる、強い適応的敵の概念を新たに定義する。
MESASは、実際のデータシナリオで有効であり、平均オーバーヘッドは24.37秒である。
論文 参考訳(メタデータ) (2023-06-06T11:44:42Z) - Towards Adversarial Realism and Robust Learning for IoT Intrusion
Detection and Classification [0.0]
IoT(Internet of Things)は、重大なセキュリティ上の課題に直面している。
敵の攻撃による脅威の増大は、信頼できる防衛戦略の必要性を回復させる。
本研究は、敵のサイバー攻撃事例が現実的であるために必要な制約の種類について述べる。
論文 参考訳(メタデータ) (2023-01-30T18:00:28Z) - DODEM: DOuble DEfense Mechanism Against Adversarial Attacks Towards
Secure Industrial Internet of Things Analytics [8.697883716452385]
I-IoT環境における敵攻撃の検出と軽減のための二重防御機構を提案する。
まず、新規性検出アルゴリズムを用いて、サンプルに対して逆攻撃があるかどうかを検知する。
攻撃があった場合、敵の再訓練はより堅牢なモデルを提供する一方、通常のサンプルに対して標準的な訓練を適用する。
論文 参考訳(メタデータ) (2023-01-23T22:10:40Z) - Guidance Through Surrogate: Towards a Generic Diagnostic Attack [101.36906370355435]
我々は、攻撃最適化中に局所最小限を避けるための誘導機構を開発し、G-PGAと呼ばれる新たな攻撃に繋がる。
修正された攻撃では、ランダムに再起動したり、多数の攻撃を繰り返したり、最適なステップサイズを検索したりする必要がありません。
効果的な攻撃以上に、G-PGAは敵防御における勾配マスキングによる解離性堅牢性を明らかにするための診断ツールとして用いられる。
論文 参考訳(メタデータ) (2022-12-30T18:45:23Z) - Model-Agnostic Meta-Attack: Towards Reliable Evaluation of Adversarial
Robustness [53.094682754683255]
モデル非依存型メタアタック(MAMA)アプローチにより,より強力な攻撃アルゴリズムを自動検出する。
本手法は、繰り返しニューラルネットワークによってパラメータ化された逆攻撃を学習する。
本研究では,未知の防御を攻撃した場合の学習能力を向上させるために,モデルに依存しない訓練アルゴリズムを開発した。
論文 参考訳(メタデータ) (2021-10-13T13:54:24Z) - A Hamiltonian Monte Carlo Method for Probabilistic Adversarial Attack
and Learning [122.49765136434353]
本稿では,HMCAM (Acumulated Momentum) を用いたハミルトニアンモンテカルロ法を提案する。
また, 対数的対数的対数的学習(Contrastive Adversarial Training, CAT)と呼ばれる新たな生成法を提案し, 対数的例の平衡分布にアプローチする。
いくつかの自然画像データセットと実用システムに関する定量的および定性的な解析により、提案アルゴリズムの優位性が確認された。
論文 参考訳(メタデータ) (2020-10-15T16:07:26Z) - Crafting Adversarial Examples for Deep Learning Based Prognostics
(Extended Version) [0.0]
State-of-the-the-the-art Prognostics and Health Management (PHM)システムには、Deep Learning (DL)アルゴリズムとInternet of Things (IoT)デバイスが組み込まれている。
本稿では,コンピュータビジョン領域からの逆例作成手法を採用し,PHM領域に適用する。
我々は、NASAのターボファンエンジンデータセットを用いて、敵攻撃の影響を評価する。
論文 参考訳(メタデータ) (2020-09-21T19:43:38Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。