論文の概要: Undermining Federated Learning Accuracy in EdgeIoT via Variational Graph Auto-Encoders
- arxiv url: http://arxiv.org/abs/2504.10067v1
- Date: Mon, 14 Apr 2025 10:09:38 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-04-15 16:50:25.974423
- Title: Undermining Federated Learning Accuracy in EdgeIoT via Variational Graph Auto-Encoders
- Title(参考訳): 変分グラフオートエンコーダによるEdgeIoTのフェデレーション学習精度の低下
- Authors: Kai Li, Shuyan Hu, Bochun Wu, Sai Zou, Wei Ni, Falko Dressler,
- Abstract要約: EdgeIoTはIoT(Internet of Things)デバイスによるモバイルエッジコンピューティングを提供し、データソースに近いデータ処理を可能にする。
フェデレートされた学習により、各デバイスはローカルに処理されたデータで共有された機械学習モデルのアップデートをアップロードできる。
本稿では,データに依存しないモデル操作攻撃として知られるEdgeIoTにおけるフェデレーション学習を対象とする新たな攻撃手法を提案する。
- 参考スコア(独自算出の注目度): 23.39841886729196
- License:
- Abstract: EdgeIoT represents an approach that brings together mobile edge computing with Internet of Things (IoT) devices, allowing for data processing close to the data source. Sending source data to a server is bandwidth-intensive and may compromise privacy. Instead, federated learning allows each device to upload a shared machine-learning model update with locally processed data. However, this technique, which depends on aggregating model updates from various IoT devices, is vulnerable to attacks from malicious entities that may inject harmful data into the learning process. This paper introduces a new attack method targeting federated learning in EdgeIoT, known as data-independent model manipulation attack. This attack does not rely on training data from the IoT devices but instead uses an adversarial variational graph auto-encoder (AV-GAE) to create malicious model updates by analyzing benign model updates intercepted during communication. AV-GAE identifies and exploits structural relationships between benign models and their training data features. By manipulating these structural correlations, the attack maximizes the training loss of the federated learning system, compromising its overall effectiveness.
- Abstract(参考訳): EdgeIoTは、モバイルエッジコンピューティングとIoT(Internet of Things)デバイスを統合するアプローチであり、データソースに近いデータ処理を可能にする。
ソースデータをサーバに送信することは帯域幅集約的であり、プライバシーを侵害する可能性がある。
その代わり、フェデレートされた学習により、各デバイスはローカルに処理されたデータで共有機械学習モデルの更新をアップロードできる。
しかしながら、このテクニックは、さまざまなIoTデバイスからのモデル更新の集約に依存するため、学習プロセスに有害なデータを注入する悪意のあるエンティティからの攻撃に対して脆弱である。
本稿では,データに依存しないモデル操作攻撃として知られるEdgeIoTにおけるフェデレーション学習を対象とする新たな攻撃手法を提案する。
この攻撃は、IoTデバイスからのトレーニングデータに頼るのではなく、敵の変動グラフオートエンコーダ(AV-GAE)を使用して、通信中に傍受された良質なモデル更新を分析して悪意あるモデル更新を生成する。
AV-GAEは、良性モデルとトレーニングデータ機能の間の構造的関係を特定し、活用する。
これらの構造的相関を操作することで、この攻撃は連合学習システムのトレーニング損失を最大化し、その全体的な効果を損なう。
関連論文リスト
- FedSR: A Semi-Decentralized Federated Learning Algorithm for Non-IIDness in IoT System [2.040586739710704]
IoT(Industrial Internet of Things)では、大量のデータが毎日生成される。
プライバシーとセキュリティの問題により、これらのデータをまとめてディープラーニングモデルをトレーニングすることは困難である。
本稿では,集中型フェデレーション学習と分散型フェデレーション学習を組み合わせて,半分散型クラウドエッジデバイス階層型フェデレーション学習フレームワークを設計する。
論文 参考訳(メタデータ) (2024-03-19T09:34:01Z) - Effective Intrusion Detection in Heterogeneous Internet-of-Things Networks via Ensemble Knowledge Distillation-based Federated Learning [52.6706505729803]
我々は、分散化された侵入検知システムの共有モデル(IDS)を協調訓練するために、フェデレートラーニング(FL)を導入する。
FLEKDは従来のモデル融合法よりも柔軟な凝集法を実現する。
実験の結果,提案手法は,速度と性能の両面で,局所訓練と従来のFLよりも優れていた。
論文 参考訳(メタデータ) (2024-01-22T14:16:37Z) - Data-Agnostic Model Poisoning against Federated Learning: A Graph
Autoencoder Approach [65.2993866461477]
本稿では,フェデレートラーニング(FL)に対するデータに依存しないモデル中毒攻撃を提案する。
この攻撃はFLトレーニングデータの知識を必要とせず、有効性と検出不能の両方を達成する。
実験により、FLの精度は提案した攻撃の下で徐々に低下し、既存の防御機構では検出できないことが示された。
論文 参考訳(メタデータ) (2023-11-30T12:19:10Z) - Edge-assisted U-Shaped Split Federated Learning with Privacy-preserving
for Internet of Things [4.68267059122563]
本稿では,エッジサーバの高性能機能を活用した,エッジ支援型U-Shaped Split Federated Learning (EUSFL) フレームワークを提案する。
このフレームワークでは、フェデレートラーニング(FL)を活用し、データ保持者がデータを共有せずに協調的にモデルをトレーニングできるようにします。
また,データの特徴やラベルが復元攻撃に対して確実に耐えられるように,ラベルDPと呼ばれる新しいノイズ機構を提案する。
論文 参考訳(メタデータ) (2023-11-08T05:14:41Z) - Discretization-based ensemble model for robust learning in IoT [8.33619265970446]
本稿では,機械学習モデルのセキュリティ向上を目的とした,離散化に基づくアンサンブルスタック手法を提案する。
我々は、ホワイトボックスやブラックボックス攻撃に対して、さまざまなMLベースのIoTデバイス識別モデルの性能を評価する。
論文 参考訳(メタデータ) (2023-07-18T03:48:27Z) - Federated Learning Based Distributed Localization of False Data
Injection Attacks on Smart Grids [5.705281336771011]
偽データインジェクション攻撃(False Data Injection attack, FDIA)は、悪意のあるデータを注入することで、スマート測定デバイスをターゲットにする攻撃の1つである。
本稿では,ハイブリッドディープニューラルネットワークアーキテクチャと組み合わせたフェデレート学習に基づくスキームを提案する。
提案手法をIEEE 57,118,300バスシステムおよび実電力負荷データを用いて広範囲なシミュレーションにより検証した。
論文 参考訳(メタデータ) (2023-06-17T20:29:55Z) - Federated Learning and Meta Learning: Approaches, Applications, and
Directions [94.68423258028285]
本稿では,FL,メタラーニング,フェデレーションメタラーニング(FedMeta)について概観する。
他のチュートリアルと異なり、私たちの目標はFL、メタラーニング、FedMetaの方法論をどのように設計、最適化、進化させ、無線ネットワーク上で応用するかを探ることです。
論文 参考訳(メタデータ) (2022-10-24T10:59:29Z) - Robust Semi-supervised Federated Learning for Images Automatic
Recognition in Internet of Drones [57.468730437381076]
プライバシー保護型UAV画像認識のための半教師付きフェデレートラーニング(SSFL)フレームワークを提案する。
異なるカメラモジュールを使用したUAVによって収集されたローカルデータの数、特徴、分布には大きな違いがある。
本稿では,クライアントがトレーニングに参加する頻度,すなわちFedFreqアグリゲーションルールに基づくアグリゲーションルールを提案する。
論文 参考訳(メタデータ) (2022-01-03T16:49:33Z) - Collaborative adversary nodes learning on the logs of IoT devices in an
IoT network [0.0]
データの観点からIoTセキュリティのための改良されたアプローチを提案する。
Recurrent Neural Network (RNN) を用いたAdLIoTLogモデルの提案
その結果,AdLIoTLogモデルの予測性能は攻撃の有無で3~4%低下した。
論文 参考訳(メタデータ) (2021-12-22T02:56:22Z) - Learning to Learn Transferable Attack [77.67399621530052]
転送逆行攻撃は非自明なブラックボックス逆行攻撃であり、サロゲートモデル上で敵の摂動を発生させ、そのような摂動を被害者モデルに適用することを目的としている。
本研究では,データとモデル拡張の両方から学習することで,敵の摂動をより一般化する学習可能な攻撃学習法(LLTA)を提案する。
提案手法の有効性を実証し, 現状の手法と比較して, 12.85%のトランスファー攻撃の成功率で検証した。
論文 参考訳(メタデータ) (2021-12-10T07:24:21Z) - Delving into Data: Effectively Substitute Training for Black-box Attack [84.85798059317963]
本稿では,知識盗むプロセスで使用されるデータの分散設計に焦点をあてた,新しい視点代替トレーニングを提案する。
これら2つのモジュールの組み合わせにより、代替モデルとターゲットモデルの一貫性がさらに向上し、敵攻撃の有効性が大幅に向上する。
論文 参考訳(メタデータ) (2021-04-26T07:26:29Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。