論文の概要: Poisoning Attacks in Federated Edge Learning for Digital Twin 6G-enabled
IoTs: An Anticipatory Study
- arxiv url: http://arxiv.org/abs/2303.11745v1
- Date: Tue, 21 Mar 2023 11:12:17 GMT
- ステータス: 処理完了
- システム内更新日: 2023-03-22 15:23:30.180434
- Title: Poisoning Attacks in Federated Edge Learning for Digital Twin 6G-enabled
IoTs: An Anticipatory Study
- Title(参考訳): デジタル双対6G対応IoTのためのフェデレーションエッジ学習における攻撃の予測
- Authors: Mohamed Amine Ferrag and Burak Kantarci and Lucas C. Cordeiro and
Merouane Debbah and Kim-Kwang Raymond Choo
- Abstract要約: フェデレーションエッジ学習は、デジタルツインの6G対応モノのインターネット(IoT)環境において、プライバシ保護、人工知能(AI)対応のアクティビティをサポートする上で不可欠である。
本稿では,デジタル双対6G対応IoT環境におけるフェデレーションエッジ学習における中毒攻撃の予測研究を提案する。
- 参考スコア(独自算出の注目度): 37.97034388920841
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Federated edge learning can be essential in supporting privacy-preserving,
artificial intelligence (AI)-enabled activities in digital twin 6G-enabled
Internet of Things (IoT) environments. However, we need to also consider the
potential of attacks targeting the underlying AI systems (e.g., adversaries
seek to corrupt data on the IoT devices during local updates or corrupt the
model updates); hence, in this article, we propose an anticipatory study for
poisoning attacks in federated edge learning for digital twin 6G-enabled IoT
environments. Specifically, we study the influence of adversaries on the
training and development of federated learning models in digital twin
6G-enabled IoT environments. We demonstrate that attackers can carry out
poisoning attacks in two different learning settings, namely: centralized
learning and federated learning, and successful attacks can severely reduce the
model's accuracy. We comprehensively evaluate the attacks on a new cyber
security dataset designed for IoT applications with three deep neural networks
under the non-independent and identically distributed (Non-IID) data and the
independent and identically distributed (IID) data. The poisoning attacks, on
an attack classification problem, can lead to a decrease in accuracy from
94.93% to 85.98% with IID data and from 94.18% to 30.04% with Non-IID.
- Abstract(参考訳): フェデレーションエッジ学習は、デジタルツインの6G対応モノのインターネット(IoT)環境において、プライバシ保護、人工知能(AI)対応のアクティビティをサポートする上で不可欠である。
しかし、基盤となるaiシステムをターゲットにした攻撃の可能性も考慮する必要がある(例えば、敵はローカル更新中にiotデバイス上のデータを腐敗させようとしたり、モデル更新を台無しにしたりする)ので、デジタルツイン6g対応iot環境における連合エッジラーニングにおける毒殺攻撃の予測研究を提案する。
具体的には,デジタル双対6G対応IoT環境におけるフェデレーション学習モデルの訓練と開発に対する敵の影響について検討する。
集中学習と連合学習という2つの異なる学習環境において、攻撃者が毒殺攻撃を実行できることを実証し、攻撃の成功によってモデルの精度が著しく低下することを示した。
非独立かつ同一分散(非iid)データと独立かつ同一分散(iid)データの下に3つのディープニューラルネットワークを備えたiotアプリケーション向けに設計された、新たなサイバーセキュリティデータセットに対する攻撃を包括的に評価する。
攻撃分類上の攻撃攻撃は、IIDデータでは94.93%から85.98%に、非IIDでは94.18%から30.04%に精度が低下する可能性がある。
関連論文リスト
- Strengthening Network Intrusion Detection in IoT Environments with Self-Supervised Learning and Few Shot Learning [1.0678175996321808]
IoT(Internet of Things)は、インテリジェンスを日常のオブジェクトに統合するブレークスルー技術として紹介されている。
IoTネットワークが拡大し、拡大するにつれ、サイバーセキュリティ攻撃の影響を受けやすくなっている。
本稿では,これらの課題に対処する新しい侵入検知手法を提案する。
論文 参考訳(メタデータ) (2024-06-04T06:30:22Z) - A Dual-Tier Adaptive One-Class Classification IDS for Emerging Cyberthreats [3.560574387648533]
2層構造を有する一級分類駆動型IDSシステムを提案する。
第1層は通常の活動と攻撃/脅威を区別し、第2層は検出された攻撃が未知であるかを判定する。
このモデルは、目に見えない攻撃を識別するだけでなく、目に見えない攻撃をクラスタリングすることでそれらを再トレーニングするために使用する。
論文 参考訳(メタデータ) (2024-03-17T12:26:30Z) - Enhancing IoT Security Against DDoS Attacks through Federated Learning [0.0]
IoT(Internet of Things)は、物理デバイスとデジタル領域の間の変換接続を基盤としている。
従来のDDoS緩和アプローチは、IoTエコシステムの複雑さを扱うには不十分である。
本稿では、フェデレートラーニングの力を活用して、IoTネットワークのDDoS攻撃に対するセキュリティを強化する革新的な戦略を紹介する。
論文 参考訳(メタデータ) (2024-03-16T16:45:28Z) - Effective Intrusion Detection in Heterogeneous Internet-of-Things Networks via Ensemble Knowledge Distillation-based Federated Learning [52.6706505729803]
我々は、分散化された侵入検知システムの共有モデル(IDS)を協調訓練するために、フェデレートラーニング(FL)を導入する。
FLEKDは従来のモデル融合法よりも柔軟な凝集法を実現する。
実験の結果,提案手法は,速度と性能の両面で,局所訓練と従来のFLよりも優れていた。
論文 参考訳(メタデータ) (2024-01-22T14:16:37Z) - Investigating Human-Identifiable Features Hidden in Adversarial
Perturbations [54.39726653562144]
我々の研究では、最大5つの攻撃アルゴリズムを3つのデータセットにわたって探索する。
対人摂動における人間の識別可能な特徴を同定する。
画素レベルのアノテーションを用いて、そのような特徴を抽出し、ターゲットモデルに妥協する能力を実証する。
論文 参考訳(メタデータ) (2023-09-28T22:31:29Z) - Unsupervised Ensemble Based Deep Learning Approach for Attack Detection
in IoT Network [0.0]
モノのインターネット(Internet of Things, IoT)は、デバイスやものをインターネット上でコントロールすることによって、生活を変えてきた。
IoTネットワークをダウンさせるために、攻撃者はこれらのデバイスを使用してさまざまなネットワーク攻撃を行うことができる。
本稿では,非ラベルデータセットからIoTネットワークにおける新たな,あるいは未知の攻撃を検出可能な,教師なしアンサンブル学習モデルを開発した。
論文 参考訳(メタデータ) (2022-07-16T11:12:32Z) - AdIoTack: Quantifying and Refining Resilience of Decision Tree Ensemble
Inference Models against Adversarial Volumetric Attacks on IoT Networks [1.1172382217477126]
本稿では,敵攻撃に対する決定木の脆弱性を強調するシステムであるAdIoTackを紹介する。
最悪のシナリオのモデルを評価するために、AdIoTackは、ホワイトボックスの敵学習を実行し、ボリューム攻撃を成功させる。
モデルがIoTデバイスに対する非敵のボリューム攻撃を検知し、多くの敵の攻撃を欠いていることを実証する。
論文 参考訳(メタデータ) (2022-03-18T08:18:03Z) - Automating Privilege Escalation with Deep Reinforcement Learning [71.87228372303453]
本研究では,エージェントの訓練に深層強化学習を用いることで,悪意あるアクターの潜在的な脅威を実証する。
本稿では,最先端の強化学習アルゴリズムを用いて,局所的な特権エスカレーションを行うエージェントを提案する。
我々のエージェントは、実際の攻撃センサーデータを生成し、侵入検知システムの訓練と評価に利用できる。
論文 参考訳(メタデータ) (2021-10-04T12:20:46Z) - The Feasibility and Inevitability of Stealth Attacks [63.14766152741211]
我々は、攻撃者が汎用人工知能システムにおける決定を制御できる新しい敵の摂動について研究する。
敵対的なデータ修正とは対照的に、ここで考慮する攻撃メカニズムには、AIシステム自体の変更が含まれる。
論文 参考訳(メタデータ) (2021-06-26T10:50:07Z) - Learning and Certification under Instance-targeted Poisoning [49.55596073963654]
インスタンスターゲット中毒攻撃におけるPAC学習性と認証について検討する。
敵の予算がサンプルの複雑さに比例してスケールすると、PACの学習性と認定が達成可能であることを示す。
実データセット上でのK近傍, ロジスティック回帰, 多層パーセプトロン, 畳み込みニューラルネットワークの堅牢性を実証的に検討する。
論文 参考訳(メタデータ) (2021-05-18T17:48:15Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。