論文の概要: DODEM: DOuble DEfense Mechanism Against Adversarial Attacks Towards
Secure Industrial Internet of Things Analytics
- arxiv url: http://arxiv.org/abs/2301.09740v1
- Date: Mon, 23 Jan 2023 22:10:40 GMT
- ステータス: 処理完了
- システム内更新日: 2023-01-25 14:48:13.455275
- Title: DODEM: DOuble DEfense Mechanism Against Adversarial Attacks Towards
Secure Industrial Internet of Things Analytics
- Title(参考訳): DODEM: 安全な産業用IoT分析に向けた敵攻撃に対する二重抑止機構
- Authors: Onat Gungor, Tajana Rosing, Baris Aksanli
- Abstract要約: I-IoT環境における敵攻撃の検出と軽減のための二重防御機構を提案する。
まず、新規性検出アルゴリズムを用いて、サンプルに対して逆攻撃があるかどうかを検知する。
攻撃があった場合、敵の再訓練はより堅牢なモデルを提供する一方、通常のサンプルに対して標準的な訓練を適用する。
- 参考スコア(独自算出の注目度): 8.697883716452385
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Industrial Internet of Things (I-IoT) is a collaboration of devices, sensors,
and networking equipment to monitor and collect data from industrial
operations. Machine learning (ML) methods use this data to make high-level
decisions with minimal human intervention. Data-driven predictive maintenance
(PDM) is a crucial ML-based I-IoT application to find an optimal maintenance
schedule for industrial assets. The performance of these ML methods can
seriously be threatened by adversarial attacks where an adversary crafts
perturbed data and sends it to the ML model to deteriorate its prediction
performance. The models should be able to stay robust against these attacks
where robustness is measured by how much perturbation in input data affects
model performance. Hence, there is a need for effective defense mechanisms that
can protect these models against adversarial attacks. In this work, we propose
a double defense mechanism to detect and mitigate adversarial attacks in I-IoT
environments. We first detect if there is an adversarial attack on a given
sample using novelty detection algorithms. Then, based on the outcome of our
algorithm, marking an instance as attack or normal, we select adversarial
retraining or standard training to provide a secondary defense layer. If there
is an attack, adversarial retraining provides a more robust model, while we
apply standard training for regular samples. Since we may not know if an attack
will take place, our adaptive mechanism allows us to consider irregular changes
in data. The results show that our double defense strategy is highly efficient
where we can improve model robustness by up to 64.6% and 52% compared to
standard and adversarial retraining, respectively.
- Abstract(参考訳): 産業用IoT(Industrial Internet of Things、I-IoT)は、産業用機器からのデータを監視し収集するためのデバイス、センサー、ネットワーク機器のコラボレーションである。
機械学習(ML)メソッドはこのデータを使用して、人間の介入を最小限に抑えて高いレベルの決定を行う。
データ駆動予測メンテナンス(PDM)は、産業資産の最適なメンテナンススケジュールを見つけるためのMLベースのI-IoTアプリケーションである。
これらのML手法の性能は、敵がデータを乱してMLモデルに送信し予測性能を低下させる敵攻撃によって深刻な脅威となる可能性がある。
入力データの摂動がモデルのパフォーマンスにどの程度影響するかによってロバスト性が測定される場合、モデルがこれらの攻撃に対して頑健である必要がある。
したがって、敵攻撃からこれらのモデルを保護する効果的な防御機構が必要である。
本研究では,I-IoT環境における敵攻撃の検出と軽減のための二重防御機構を提案する。
まず,与えられたサンプルに敵意攻撃があるかどうかを,新規検出アルゴリズムを用いて検出する。
そして,本アルゴリズムの結果に基づいて,攻撃的あるいは正常なインスタンスをマークし,敵の再訓練や標準訓練を選択し,二次防衛層を提供する。
攻撃があった場合、敵のリトレーニングはより堅牢なモデルを提供し、標準のトレーニングを通常のサンプルに適用します。
攻撃が起こるかどうか分からないため、我々の適応的なメカニズムはデータの不規則な変化を考慮できます。
その結果, モデルロバストネスを64.6%, 52%向上できる2重防衛戦略は, 標準的, 対角的リトレーニングに比べて, 極めて効率的であることが示唆された。
関連論文リスト
- Adversarial Attacks and Defenses in Multivariate Time-Series Forecasting for Smart and Connected Infrastructures [0.9217021281095907]
時系列予測における敵攻撃の影響について検討する。
トレーニングプロセスへの入力を有害にするために、未ターゲットのホワイトボックスアタックを採用し、効果的にモデルを誤解させる。
これらの攻撃の有効性を実証し、敵の訓練とモデル硬化による堅牢なモデルを構築した。
論文 参考訳(メタデータ) (2024-08-27T08:44:31Z) - FreqFed: A Frequency Analysis-Based Approach for Mitigating Poisoning
Attacks in Federated Learning [98.43475653490219]
フェデレート・ラーニング(Federated Learning, FL)は、毒素による攻撃を受けやすい。
FreqFedは、モデルの更新を周波数領域に変換する新しいアグリゲーションメカニズムである。
FreqFedは, 凝集モデルの有用性に悪影響を及ぼすことなく, 毒性攻撃を効果的に軽減できることを実証した。
論文 参考訳(メタデータ) (2023-12-07T16:56:24Z) - Avoid Adversarial Adaption in Federated Learning by Multi-Metric
Investigations [55.2480439325792]
Federated Learning(FL)は、分散機械学習モデルのトレーニング、データのプライバシの保護、通信コストの低減、多様化したデータソースによるモデルパフォーマンスの向上を支援する。
FLは、中毒攻撃、標的外のパフォーマンス劣化とターゲットのバックドア攻撃の両方でモデルの整合性を損なうような脆弱性に直面している。
我々は、複数の目的に同時に適応できる、強い適応的敵の概念を新たに定義する。
MESASは、実際のデータシナリオで有効であり、平均オーバーヘッドは24.37秒である。
論文 参考訳(メタデータ) (2023-06-06T11:44:42Z) - Robust Trajectory Prediction against Adversarial Attacks [84.10405251683713]
ディープニューラルネットワーク(DNN)を用いた軌道予測は、自律運転システムにおいて不可欠な要素である。
これらの手法は敵の攻撃に対して脆弱であり、衝突などの重大な結果をもたらす。
本研究では,敵対的攻撃に対する軌道予測モデルを保護するための2つの重要な要素を同定する。
論文 参考訳(メタデータ) (2022-07-29T22:35:05Z) - RelaxLoss: Defending Membership Inference Attacks without Losing Utility [68.48117818874155]
より達成可能な学習目標を持つ緩和された損失に基づく新しい学習フレームワークを提案する。
RelaxLossは、簡単な実装と無視可能なオーバーヘッドのメリットを加えた任意の分類モデルに適用できる。
当社のアプローチはMIAに対するレジリエンスの観点から,常に最先端の防御機構より優れています。
論文 参考訳(メタデータ) (2022-07-12T19:34:47Z) - Machine Learning Security against Data Poisoning: Are We There Yet? [23.809841593870757]
この記事では、機械学習モデル学習に使用されるトレーニングデータを侵害するデータ中毒攻撃についてレビューする。
基本的なセキュリティ原則を用いてこれらの攻撃を緩和するか、あるいはML指向の防御機構をデプロイするかについて議論する。
論文 参考訳(メタデータ) (2022-04-12T17:52:09Z) - Adaptive Feature Alignment for Adversarial Training [56.17654691470554]
CNNは通常、敵攻撃に対して脆弱であり、セキュリティに敏感なアプリケーションに脅威をもたらす。
任意の攻撃強度の特徴を生成するための適応的特徴アライメント(AFA)を提案する。
本手法は任意の攻撃強度の特徴を自動的に整列するように訓練されている。
論文 参考訳(メタデータ) (2021-05-31T17:01:05Z) - Defence against adversarial attacks using classical and quantum-enhanced
Boltzmann machines [64.62510681492994]
生成モデルはデータセットの基盤となる分布を学習し、それらは本質的に小さな摂動に対してより堅牢である。
MNISTデータセット上のBoltzmannマシンによる攻撃に対して、5%から72%の改良が見られる。
論文 参考訳(メタデータ) (2020-12-21T19:00:03Z) - Omni: Automated Ensemble with Unexpected Models against Adversarial
Evasion Attack [35.0689225703137]
機械学習に基づくセキュリティ検出モデルは、敵の回避攻撃の影響を受けやすい。
我々はオムニ(Omni)と呼ばれる手法を提案し、「予期せぬモデル」のアンサンブルを作成する方法を探る。
5種類の敵対的回避攻撃による研究において,オムニは防衛戦略として有望なアプローチであることを示す。
論文 参考訳(メタデータ) (2020-11-23T20:02:40Z) - Improving Robustness to Model Inversion Attacks via Mutual Information
Regularization [12.079281416410227]
本稿では,モデル逆転攻撃に対する防御機構について検討する。
MIは、ターゲット機械学習モデルへのアクセスからトレーニングデータ配布に関する情報を推測することを目的とした、プライバシ攻撃の一種である。
我々はMI攻撃に対するMID(Multual Information Regularization based Defense)を提案する。
論文 参考訳(メタデータ) (2020-09-11T06:02:44Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。