論文の概要: Mitigating Communications Threats in Decentralized Federated Learning
through Moving Target Defense
- arxiv url: http://arxiv.org/abs/2307.11730v2
- Date: Sat, 9 Dec 2023 19:13:06 GMT
- ステータス: 処理完了
- システム内更新日: 2023-12-13 02:13:14.533340
- Title: Mitigating Communications Threats in Decentralized Federated Learning
through Moving Target Defense
- Title(参考訳): 移動目標防衛による分散学習におけるコミュニケーションの脅威の軽減
- Authors: Enrique Tom\'as Mart\'inez Beltr\'an and Pedro Miguel S\'anchez
S\'anchez and Sergio L\'opez Bernal and G\'er\^ome Bovet and Manuel Gil
P\'erez and Gregorio Mart\'inez P\'erez and Alberto Huertas Celdr\'an
- Abstract要約: 分散フェデレーションラーニング(DFL)は、フェデレーション参加者間の機械学習モデルのトレーニングを可能にした。
本稿では,DFLプラットフォームに対する通信ベースの攻撃に対抗するセキュリティモジュールを提案する。
セキュリティモジュールの有効性は、MNISTデータセットと日食攻撃の実験を通じて検証される。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: The rise of Decentralized Federated Learning (DFL) has enabled the training
of machine learning models across federated participants, fostering
decentralized model aggregation and reducing dependence on a server. However,
this approach introduces unique communication security challenges that have yet
to be thoroughly addressed in the literature. These challenges primarily
originate from the decentralized nature of the aggregation process, the varied
roles and responsibilities of the participants, and the absence of a central
authority to oversee and mitigate threats. Addressing these challenges, this
paper first delineates a comprehensive threat model focused on DFL
communications. In response to these identified risks, this work introduces a
security module to counter communication-based attacks for DFL platforms. The
module combines security techniques such as symmetric and asymmetric encryption
with Moving Target Defense (MTD) techniques, including random neighbor
selection and IP/port switching. The security module is implemented in a DFL
platform, Fedstellar, allowing the deployment and monitoring of the federation.
A DFL scenario with physical and virtual deployments have been executed,
encompassing three security configurations: (i) a baseline without security,
(ii) an encrypted configuration, and (iii) a configuration integrating both
encryption and MTD techniques. The effectiveness of the security module is
validated through experiments with the MNIST dataset and eclipse attacks. The
results showed an average F1 score of 95%, with the most secure configuration
resulting in CPU usage peaking at 68% (+-9%) in virtual deployments and network
traffic reaching 480.8 MB (+-18 MB), effectively mitigating risks associated
with eavesdropping or eclipse attacks.
- Abstract(参考訳): 分散フェデレーション学習(DFL)の台頭は、フェデレーションされた参加者間で機械学習モデルのトレーニングを可能にし、分散モデルの集約を促進し、サーバへの依存を減らす。
しかし,本手法では,本論文では未解決の独特な通信セキュリティ上の課題が提起されている。
これらの課題は、主に集約プロセスの分散的な性質、参加者の役割と責任の多様性、脅威を監督し緩和する中央機関の欠如に由来する。
これらの課題に対して,本稿ではまず,dfl通信に着目した包括的脅威モデルについて述べる。
これらのリスクに応えて、DFLプラットフォームに対する通信ベースの攻撃に対抗するセキュリティモジュールを導入する。
このモジュールは、対称暗号や非対称暗号のようなセキュリティ技術と、ランダムな隣人選択やIP/ポート切替を含む移動目標防衛(MTD)技術を組み合わせる。
セキュリティモジュールはDFLプラットフォームであるFedstellarで実装されており、フェデレーションのデプロイと監視を可能にする。
物理および仮想デプロイメントを備えたDFLシナリオが3つのセキュリティ設定を含む実行された。
(i)セキュリティのないベースライン
(ii)暗号化された構成、及び
(iii)暗号化とMTD技術を統合した構成。
セキュリティモジュールの有効性は、MNISTデータセットと日食攻撃の実験を通じて検証される。
その結果、cpu使用率が最大で68%(+-9%)、ネットワークトラフィックは480.8mb(+-18mb)に達し、盗聴やeclipse攻撃に関連するリスクを効果的に軽減した。
関連論文リスト
- Global Challenge for Safe and Secure LLMs Track 1 [57.08717321907755]
LLM(Global Challenge for Safe and Secure Large Language Models)は、AI Singapore(AISG)とCyberSG R&D Programme Office(CRPO)が主催する先駆的イニシアチブである。
本稿では,AI Singapore(AISG)とCyberSG R&D Programme Office(CRPO)が組織した先駆的イニシアチブであるLLM(Global Challenge for Safe and Secure Large Language Models)を紹介する。
論文 参考訳(メタデータ) (2024-11-21T08:20:31Z) - Toward Mixture-of-Experts Enabled Trustworthy Semantic Communication for 6G Networks [82.3753728955968]
本稿では,新しいMixture-of-Experts(MoE)ベースのSemComシステムを提案する。
このシステムはゲーティングネットワークと複数の専門家で構成され、それぞれ異なるセキュリティ課題に特化している。
ゲーティングネットワークは、ユーザ定義のセキュリティ要件に基づいて、異種攻撃に対抗するための適切な専門家を適応的に選択する。
車両ネットワークにおけるケーススタディは、MoEベースのSemComシステムの有効性を示す。
論文 参考訳(メタデータ) (2024-09-24T03:17:51Z) - A Trustworthy AIoT-enabled Localization System via Federated Learning and Blockchain [29.968086297894626]
そこで我々はDFLocというフレームワークを提案し,正確な3Dローカライゼーションを実現する。
具体的には、信頼性が高く正確な屋内位置決めシステムにおける単一点故障の問題に対処する。
悪意のあるノード攻撃の懸念を軽減するため、ブロックチェーン内にモデル検証機構を更新する。
論文 参考訳(メタデータ) (2024-07-08T04:14:19Z) - Enhancing Trust and Privacy in Distributed Networks: A Comprehensive Survey on Blockchain-based Federated Learning [51.13534069758711]
ブロックチェーンのような分散型アプローチは、複数のエンティティ間でコンセンサスメカニズムを実装することで、魅力的なソリューションを提供する。
フェデレートラーニング(FL)は、参加者がデータのプライバシを保護しながら、協力的にモデルをトレーニングすることを可能にする。
本稿では,ブロックチェーンのセキュリティ機能とFLのプライバシ保護モデルトレーニング機能の相乗効果について検討する。
論文 参考訳(メタデータ) (2024-03-28T07:08:26Z) - Unified Physical-Digital Face Attack Detection [66.14645299430157]
顔認識(FR)システムは物理的(印刷写真)とデジタル(ディープフェイク)攻撃に悩まされることがある。
以前の関連する作業では、両方の状況が同時に考慮されることはめったにありません。
視覚言語モデル(VLM)に基づく一元攻撃検出フレームワークを提案する。
論文 参考訳(メタデータ) (2024-01-31T09:38:44Z) - Exploring the Robustness of Decentralized Training for Large Language
Models [51.41850749014054]
大規模な言語モデルの分散トレーニングは、この技術を民主化するための効果的な方法として現れてきた。
本稿では,3つの主要な視点から,分散学習の堅牢性について考察する。
論文 参考訳(メタデータ) (2023-12-01T04:04:03Z) - SaFL: Sybil-aware Federated Learning with Application to Face
Recognition [13.914187113334222]
Federated Learning(FL)は、顧客間で共同学習を行う機械学習パラダイムである。
マイナス面として、FLは研究を開始したばかりのセキュリティとプライバシに関する懸念を提起している。
本稿では,SAFL と呼ばれる FL の毒殺攻撃に対する新しい防御法を提案する。
論文 参考訳(メタデータ) (2023-11-07T21:06:06Z) - Sentinel: An Aggregation Function to Secure Decentralized Federated Learning [9.046402244232343]
Decentralized Federated Learning (DFL)は、協調モデルをトレーニングするための革新的なパラダイムとして登場し、単一障害点に対処する。
既存の防御機構は集中型FLのために設計されており、DFLの特異性を十分に活用していない。
この研究は、DFLの毒殺攻撃に対抗する防衛戦略であるSentinelを紹介した。
論文 参考訳(メタデータ) (2023-10-12T07:45:18Z) - Fedstellar: A Platform for Decentralized Federated Learning [10.014744081331672]
2016年、Googleはフェデレーション(FL)を、フェデレーションの参加者間で機械学習(ML)モデルをトレーニングするための新しいパラダイムとして提案した。
本稿では,Fedstellarについて述べる。Fedstellarは,多種多様なフェデレーションにまたがる分散化・半分散化・集中化方式でFLモデルを学習するためのプラットフォームである。
論文 参考訳(メタデータ) (2023-06-16T10:34:49Z) - Invisible for both Camera and LiDAR: Security of Multi-Sensor Fusion
based Perception in Autonomous Driving Under Physical-World Attacks [62.923992740383966]
本稿では,MDFに基づくADシステムにおけるセキュリティ問題の最初の研究について述べる。
物理的に実現可能な逆3Dプリントオブジェクトを生成し、ADシステムが検出に失敗してクラッシュする。
以上の結果から,攻撃は様々なオブジェクトタイプおよびMSFに対して90%以上の成功率を達成した。
論文 参考訳(メタデータ) (2021-06-17T05:11:07Z) - A Secure Federated Learning Framework for 5G Networks [44.40119258491145]
分散トレーニングデータセットを使用して機械学習モデルを構築するための新たなパラダイムとして、フェデレートラーニング(FL)が提案されている。
重大なセキュリティ上の脅威は2つあり、毒殺とメンバーシップ推論攻撃である。
ブロックチェーンベースのセキュアなFLフレームワークを提案し、スマートコントラクトを作成し、悪意のあるあるいは信頼性の低い参加者がFLに参加するのを防ぐ。
論文 参考訳(メタデータ) (2020-05-12T13:27:23Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。