論文の概要: RES-HD: Resilient Intelligent Fault Diagnosis Against Adversarial
Attacks Using Hyper-Dimensional Computing
- arxiv url: http://arxiv.org/abs/2203.08148v1
- Date: Mon, 14 Mar 2022 17:59:17 GMT
- ステータス: 処理完了
- システム内更新日: 2022-03-17 16:05:07.966255
- Title: RES-HD: Resilient Intelligent Fault Diagnosis Against Adversarial
Attacks Using Hyper-Dimensional Computing
- Title(参考訳): RES-HD:超次元計算を用いた敵攻撃に対する高能率知的故障診断
- Authors: Onat Gungor, Tajana Rosing, Baris Aksanli
- Abstract要約: 超次元コンピューティング(HDC)は、脳にインスパイアされた機械学習手法である。
本研究では,異なる対向攻撃に対する知的障害診断にHDCを用いる。
我々の実験は、HDCが最先端のディープラーニング手法よりも、より弾力的で軽量な学習ソリューションにつながることを示している。
- 参考スコア(独自算出の注目度): 8.697883716452385
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Industrial Internet of Things (I-IoT) enables fully automated production
systems by continuously monitoring devices and analyzing collected data.
Machine learning methods are commonly utilized for data analytics in such
systems. Cyber-attacks are a grave threat to I-IoT as they can manipulate
legitimate inputs, corrupting ML predictions and causing disruptions in the
production systems. Hyper-dimensional computing (HDC) is a brain-inspired
machine learning method that has been shown to be sufficiently accurate while
being extremely robust, fast, and energy-efficient. In this work, we use HDC
for intelligent fault diagnosis against different adversarial attacks. Our
black-box adversarial attacks first train a substitute model and create
perturbed test instances using this trained model. These examples are then
transferred to the target models. The change in the classification accuracy is
measured as the difference before and after the attacks. This change measures
the resiliency of a learning method. Our experiments show that HDC leads to a
more resilient and lightweight learning solution than the state-of-the-art deep
learning methods. HDC has up to 67.5% higher resiliency compared to the
state-of-the-art methods while being up to 25.1% faster to train.
- Abstract(参考訳): 産業用IoT(Industrial Internet of Things)は、デバイスを継続的に監視し、収集したデータを分析することによって、完全な自動生産システムを実現する。
機械学習手法は、そのようなシステムにおけるデータ分析に一般的に利用される。
サイバー攻撃は、正当な入力を操作でき、ML予測を破損させ、プロダクションシステムに障害を引き起こすため、I-IoTにとって重大な脅威である。
超次元コンピューティング(HDC)は、脳にインスパイアされた機械学習手法であり、非常に堅牢で高速でエネルギー効率が良いことが示されている。
本研究では,異なる対向攻撃に対する知的障害診断にHDCを用いる。
我々のブラックボックス敵攻撃は、まず代替モデルを訓練し、この訓練されたモデルを使用して摂動テストインスタンスを作成する。
これらの例は対象モデルに転送される。
分類精度の変化は、攻撃前後の差として測定される。
この変化は、学習方法のレジリエンスを測定する。
実験の結果,hdcは最先端のディープラーニング手法よりもレジリエントで軽量な学習ソリューションをもたらすことがわかった。
HDCは最先端の手法に比べて67.5%高い抵抗性を持ち、訓練の速度は25.1%である。
関連論文リスト
- FaultGuard: A Generative Approach to Resilient Fault Prediction in Smart Electrical Grids [53.2306792009435]
FaultGuardは、障害タイプとゾーン分類のための最初のフレームワークであり、敵攻撃に耐性がある。
本稿では,ロバスト性を高めるために,低複雑性故障予測モデルとオンライン逆行訓練手法を提案する。
本モデルでは,耐故障予測ベンチマークの最先端を最大0.958の精度で上回っている。
論文 参考訳(メタデータ) (2024-03-26T08:51:23Z) - Performance evaluation of Machine learning algorithms for Intrusion Detection System [0.40964539027092917]
本稿では機械学習(ML)技術を用いた侵入検知システム(IDS)の解析に焦点を当てた。
機械学習モデルのトレーニングと検証に使用されるKDD CUP-'99'侵入検出データセットを分析した。
論文 参考訳(メタデータ) (2023-10-01T06:35:37Z) - Fast Machine Unlearning Without Retraining Through Selective Synaptic
Dampening [51.34904967046097]
Selective Synaptic Dampening (SSD)は高速で、訓練データの長期保存を必要としない。
高速で性能が高く,トレーニングデータの長期保存を必要としない,新しい2段階のポストホック,リトレーニングフリーなマシンアンラーニング手法を提案する。
論文 参考訳(メタデータ) (2023-08-15T11:30:45Z) - DODEM: DOuble DEfense Mechanism Against Adversarial Attacks Towards
Secure Industrial Internet of Things Analytics [8.697883716452385]
I-IoT環境における敵攻撃の検出と軽減のための二重防御機構を提案する。
まず、新規性検出アルゴリズムを用いて、サンプルに対して逆攻撃があるかどうかを検知する。
攻撃があった場合、敵の再訓練はより堅牢なモデルを提供する一方、通常のサンプルに対して標準的な訓練を適用する。
論文 参考訳(メタデータ) (2023-01-23T22:10:40Z) - A White-Box Adversarial Attack Against a Digital Twin [0.0]
本稿では,敵対的攻撃に対するDigital Twin(DT)の感受性について検討する。
まず、ディープニューラルネットワークアーキテクチャを用いて車両システムのDTを定式化し、それから敵攻撃を開始する。
トレーニングされたモデルへの入力を摂動させることでDTモデルを攻撃し、ホワイトボックスアタックによってモデルがいかに簡単に破られるかを示す。
論文 参考訳(メタデータ) (2022-10-25T13:41:02Z) - Neurosymbolic hybrid approach to driver collision warning [64.02492460600905]
自律運転システムには2つの主要なアルゴリズムアプローチがある。
ディープラーニングだけでは、多くの分野で最先端の結果が得られています。
しかし、ディープラーニングモデルが機能しない場合、デバッグが非常に難しい場合もあります。
論文 参考訳(メタデータ) (2022-03-28T20:29:50Z) - Learning to Learn Transferable Attack [77.67399621530052]
転送逆行攻撃は非自明なブラックボックス逆行攻撃であり、サロゲートモデル上で敵の摂動を発生させ、そのような摂動を被害者モデルに適用することを目的としている。
本研究では,データとモデル拡張の両方から学習することで,敵の摂動をより一般化する学習可能な攻撃学習法(LLTA)を提案する。
提案手法の有効性を実証し, 現状の手法と比較して, 12.85%のトランスファー攻撃の成功率で検証した。
論文 参考訳(メタデータ) (2021-12-10T07:24:21Z) - Evaluating Deep Learning Models and Adversarial Attacks on
Accelerometer-Based Gesture Authentication [6.961253535504979]
我々は、DC-GAN(Deep Convolutional Generative Adversarial Network)を用いて、敵対的サンプルを作成する。
私たちのディープラーニングモデルは、このような攻撃シナリオに対して驚くほど堅牢であることを示します。
論文 参考訳(メタデータ) (2021-10-03T00:15:50Z) - Classification Auto-Encoder based Detector against Diverse Data
Poisoning Attacks [7.150136251781658]
毒殺攻撃は、敵対的な機械学習の脅威のカテゴリである。
本稿では,有毒データに対する分類オートエンコーダを用いた検出器であるCAEを提案する。
CAEの強化版(CAE+と呼ばれる)では、防御モデルをトレーニングするためにクリーンなデータセットを使わなくてもよいことを示す。
論文 参考訳(メタデータ) (2021-08-09T17:46:52Z) - Accumulative Poisoning Attacks on Real-time Data [56.96241557830253]
我々は、よく設計されたが簡単な攻撃戦略が、中毒効果を劇的に増幅できることを示します。
我々の研究は、よく設計されたが簡単な攻撃戦略が、中毒効果を劇的に増幅できることを検証する。
論文 参考訳(メタデータ) (2021-06-18T08:29:53Z) - How Robust are Randomized Smoothing based Defenses to Data Poisoning? [66.80663779176979]
我々は、トレーニングデータの品質の重要性を強調する堅牢な機械学習モデルに対して、これまで認識されていなかった脅威を提示します。
本稿では,二段階最適化に基づく新たなデータ中毒攻撃法を提案し,ロバストな分類器のロバスト性を保証する。
我々の攻撃は、被害者が最先端のロバストな訓練方法を用いて、ゼロからモデルを訓練しても効果的である。
論文 参考訳(メタデータ) (2020-12-02T15:30:21Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。