論文の概要: On Adversarial Vulnerability of PHM algorithms: An Initial Study
- arxiv url: http://arxiv.org/abs/2110.07462v1
- Date: Thu, 14 Oct 2021 15:35:41 GMT
- ステータス: 処理完了
- システム内更新日: 2021-10-15 15:06:00.180053
- Title: On Adversarial Vulnerability of PHM algorithms: An Initial Study
- Title(参考訳): PHMアルゴリズムの逆脆弱性について:最初の研究
- Authors: Weizhong Yan, Zhaoyuan Yang, Jianwei Qiu
- Abstract要約: 時系列センサ計測データに関連するいくつかの特徴を考慮し,PHMアルゴリズムの攻撃戦略を検討する。
実世界の2つのPHMアプリケーションを用いて、攻撃戦略を検証するとともに、PHMアルゴリズムが実際に敵攻撃に対して脆弱であることを実証する。
- 参考スコア(独自算出の注目度): 2.2559617939136505
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: With proliferation of deep learning (DL) applications in diverse domains,
vulnerability of DL models to adversarial attacks has become an increasingly
interesting research topic in the domains of Computer Vision (CV) and Natural
Language Processing (NLP). DL has also been widely adopted to diverse PHM
applications, where data are primarily time-series sensor measurements. While
those advanced DL algorithms/models have resulted in an improved PHM
algorithms' performance, the vulnerability of those PHM algorithms to
adversarial attacks has not drawn much attention in the PHM community. In this
paper we attempt to explore the vulnerability of PHM algorithms. More
specifically, we investigate the strategies of attacking PHM algorithms by
considering several unique characteristics associated with time-series sensor
measurements data. We use two real-world PHM applications as examples to
validate our attack strategies and to demonstrate that PHM algorithms indeed
are vulnerable to adversarial attacks.
- Abstract(参考訳): 多様なドメインにおけるディープラーニング(DL)アプリケーションの普及に伴い、コンピュータビジョン(CV)と自然言語処理(NLP)の分野において、DLモデルの敵攻撃に対する脆弱性がますます興味深い研究トピックになりつつある。
DLはさまざまなPHMアプリケーションにも広く採用されており、データは主に時系列センサーの測定である。
これらの先進的なDLアルゴリズム/モデルによりPHMアルゴリズムの性能は向上したが、敵攻撃に対するPHMアルゴリズムの脆弱性はPHMコミュニティではあまり注目されていない。
本稿では,PHMアルゴリズムの脆弱性について検討する。
より具体的には,時系列センサ計測データに関連する特徴をいくつか考慮し,phmアルゴリズムに対する攻撃戦略を検討する。
実世界の2つのPHMアプリケーションを用いて、攻撃戦略を検証するとともに、PHMアルゴリズムが実際に敵攻撃に対して脆弱であることを示す。
関連論文リスト
- Enhancing robustness of data-driven SHM models: adversarial training with circle loss [4.619717316983647]
構造的健康モニタリング(SHM)は、航空宇宙、民間、機械的インフラの安全と信頼性を守るために重要である。
機械学習ベースのデータ駆動アプローチは、センサーと計算能力の進歩によりSHMで人気を博している。
本稿では,防御のための対角的訓練手法を提案する。これは円損失を利用して,トレーニング中の特徴間の距離を最適化し,事例を意思決定境界から遠ざける。
論文 参考訳(メタデータ) (2024-06-20T11:55:39Z) - Efficient Adversarial Training in LLMs with Continuous Attacks [99.5882845458567]
大規模言語モデル(LLM)は、安全ガードレールをバイパスできる敵攻撃に対して脆弱である。
本稿では,2つの損失からなる高速対向訓練アルゴリズム(C-AdvUL)を提案する。
C-AdvIPOは、対向的に堅牢なアライメントのためのユーティリティデータを必要としない、対向型のIPOである。
論文 参考訳(メタデータ) (2024-05-24T14:20:09Z) - Defending Pre-trained Language Models as Few-shot Learners against
Backdoor Attacks [72.03945355787776]
軽快でプラガブルで効果的な PLM 防御である MDP を,少人数の学習者として提唱する。
我々は,MDPが攻撃の有効性と回避性の両方を選択できる興味深いジレンマを発生させることを解析的に示す。
論文 参考訳(メタデータ) (2023-09-23T04:41:55Z) - RobustPdM: Designing Robust Predictive Maintenance against Adversarial
Attacks [0.0]
対人攻撃はRUL予測の深刻な欠陥(最大11倍)を引き起こす可能性を示し、3Xによる最先端のPdM攻撃の有効性を上回った。
また,敵攻撃を防御する新たな対人訓練法を提案する。
論文 参考訳(メタデータ) (2023-01-25T20:49:12Z) - Improving robustness of jet tagging algorithms with adversarial training [56.79800815519762]
本研究では,フレーバータグ付けアルゴリズムの脆弱性について,敵攻撃による検証を行った。
シミュレーション攻撃の影響を緩和する対人訓練戦略を提案する。
論文 参考訳(メタデータ) (2022-03-25T19:57:19Z) - DEALIO: Data-Efficient Adversarial Learning for Imitation from
Observation [57.358212277226315]
観察ifoからの模倣学習において、学習エージェントは、実演者の生成した制御信号にアクセスせずに、実演行動の観察のみを用いて実演エージェントを模倣しようとする。
近年、逆模倣学習に基づく手法は、ifO問題に対する最先端のパフォーマンスをもたらすが、データ非効率でモデルなしの強化学習アルゴリズムに依存するため、サンプルの複雑さに悩まされることが多い。
この問題は、サンプルの収集が時間、エネルギー、およびリスクの面で高いコストを被る可能性がある現実世界の設定に展開することは非現実的です。
よりデータ効率の高いifOアルゴリズムを提案する。
論文 参考訳(メタデータ) (2021-03-31T23:46:32Z) - A Compact Deep Learning Model for Face Spoofing Detection [4.250231861415827]
プレゼンテーションアタック検出(PAD)は研究コミュニティから大きな注目を集めている。
我々は、統一されたニューラルネットワークアーキテクチャにおいて、幅広い機能と深い機能の両方を融合することで、この問題に対処する。
この手順は、ROSE-Youtu、SiW、NUAA Imposterなどのさまざまなスプーフィングデータセットで行われます。
論文 参考訳(メタデータ) (2021-01-12T21:20:09Z) - A Hamiltonian Monte Carlo Method for Probabilistic Adversarial Attack
and Learning [122.49765136434353]
本稿では,HMCAM (Acumulated Momentum) を用いたハミルトニアンモンテカルロ法を提案する。
また, 対数的対数的対数的学習(Contrastive Adversarial Training, CAT)と呼ばれる新たな生成法を提案し, 対数的例の平衡分布にアプローチする。
いくつかの自然画像データセットと実用システムに関する定量的および定性的な解析により、提案アルゴリズムの優位性が確認された。
論文 参考訳(メタデータ) (2020-10-15T16:07:26Z) - Adversarial Examples in Deep Learning for Multivariate Time Series
Regression [0.0]
この研究は、逆時系列の例に対するディープラーニング回帰モデル(DL)の脆弱性について考察する。
我々は、CNN、Long Short-Term Memory(LSTM)、Gated Recurrent Unit(GRU)の逆時系列例を作成する。
その結果, 評価されたDL回帰モデルはすべて, 敵攻撃に対して脆弱であり, 転送可能であり, 破滅的な結果をもたらす可能性が示唆された。
論文 参考訳(メタデータ) (2020-09-24T19:09:37Z) - Crafting Adversarial Examples for Deep Learning Based Prognostics
(Extended Version) [0.0]
State-of-the-the-the-art Prognostics and Health Management (PHM)システムには、Deep Learning (DL)アルゴリズムとInternet of Things (IoT)デバイスが組み込まれている。
本稿では,コンピュータビジョン領域からの逆例作成手法を採用し,PHM領域に適用する。
我々は、NASAのターボファンエンジンデータセットを用いて、敵攻撃の影響を評価する。
論文 参考訳(メタデータ) (2020-09-21T19:43:38Z) - A black-box adversarial attack for poisoning clustering [78.19784577498031]
本稿では,クラスタリングアルゴリズムのロバスト性をテストするために,ブラックボックス対逆攻撃法を提案する。
我々の攻撃は、SVM、ランダムフォレスト、ニューラルネットワークなどの教師付きアルゴリズムに対しても転送可能であることを示す。
論文 参考訳(メタデータ) (2020-09-09T18:19:31Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。