論文の概要: A Secure Federated Learning Framework for 5G Networks
- arxiv url: http://arxiv.org/abs/2005.05752v1
- Date: Tue, 12 May 2020 13:27:23 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-03 20:00:33.205865
- Title: A Secure Federated Learning Framework for 5G Networks
- Title(参考訳): 5Gネットワークのためのセキュアなフェデレーション学習フレームワーク
- Authors: Yi Liu, Jialiang Peng, Jiawen Kang, Abdullah M. Iliyasu, Dusit Niyato,
and Ahmed A. Abd El-Latif
- Abstract要約: 分散トレーニングデータセットを使用して機械学習モデルを構築するための新たなパラダイムとして、フェデレートラーニング(FL)が提案されている。
重大なセキュリティ上の脅威は2つあり、毒殺とメンバーシップ推論攻撃である。
ブロックチェーンベースのセキュアなFLフレームワークを提案し、スマートコントラクトを作成し、悪意のあるあるいは信頼性の低い参加者がFLに参加するのを防ぐ。
- 参考スコア(独自算出の注目度): 44.40119258491145
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Federated Learning (FL) has been recently proposed as an emerging paradigm to
build machine learning models using distributed training datasets that are
locally stored and maintained on different devices in 5G networks while
providing privacy preservation for participants. In FL, the central aggregator
accumulates local updates uploaded by participants to update a global model.
However, there are two critical security threats: poisoning and membership
inference attacks. These attacks may be carried out by malicious or unreliable
participants, resulting in the construction failure of global models or privacy
leakage of FL models. Therefore, it is crucial for FL to develop security means
of defense. In this article, we propose a blockchain-based secure FL framework
to create smart contracts and prevent malicious or unreliable participants from
involving in FL. In doing so, the central aggregator recognizes malicious and
unreliable participants by automatically executing smart contracts to defend
against poisoning attacks. Further, we use local differential privacy
techniques to prevent membership inference attacks. Numerical results suggest
that the proposed framework can effectively deter poisoning and membership
inference attacks, thereby improving the security of FL in 5G networks.
- Abstract(参考訳): フェデレーション学習(federated learning, fl)は、5gネットワーク内の異なるデバイスにローカルに保存され、維持される分散トレーニングデータセットを使用して機械学習モデルを構築するための新しいパラダイムとして最近提案されている。
flでは、中央アグリゲータは参加者がアップロードしたローカルアップデートを蓄積してグローバルモデルを更新する。
しかし、重大なセキュリティ上の脅威として、毒殺とメンバーシップ推論の2つがある。
これらの攻撃は悪意のある参加者や信頼できない参加者によって実行され、グローバルモデルの建設失敗やflモデルのプライバシーの漏洩を引き起こす。
したがって、flは防衛のセキュリティ手段を開発することが不可欠である。
本稿では,ブロックチェーンベースのセキュアなFLフレームワークを提案する。
中央アグリゲータは、毒殺攻撃から守るためにスマートコントラクトを自動実行することにより、悪意のある参加者と信頼性の低い参加者を認識する。
さらに、ローカルな差分プライバシー技術を用いて、メンバーシップ推論攻撃を防ぐ。
提案手法は, 5gネットワークにおけるflのセキュリティを向上し, 効果的に中毒やメンバーシップ推論攻撃を抑止できることが示唆された。
関連論文リスト
- Enhancing Trust and Privacy in Distributed Networks: A Comprehensive Survey on Blockchain-based Federated Learning [51.13534069758711]
ブロックチェーンのような分散型アプローチは、複数のエンティティ間でコンセンサスメカニズムを実装することで、魅力的なソリューションを提供する。
フェデレートラーニング(FL)は、参加者がデータのプライバシを保護しながら、協力的にモデルをトレーニングすることを可能にする。
本稿では,ブロックチェーンのセキュリティ機能とFLのプライバシ保護モデルトレーニング機能の相乗効果について検討する。
論文 参考訳(メタデータ) (2024-03-28T07:08:26Z) - FreqFed: A Frequency Analysis-Based Approach for Mitigating Poisoning
Attacks in Federated Learning [98.43475653490219]
フェデレート・ラーニング(Federated Learning, FL)は、毒素による攻撃を受けやすい。
FreqFedは、モデルの更新を周波数領域に変換する新しいアグリゲーションメカニズムである。
FreqFedは, 凝集モデルの有用性に悪影響を及ぼすことなく, 毒性攻撃を効果的に軽減できることを実証した。
論文 参考訳(メタデータ) (2023-12-07T16:56:24Z) - SaFL: Sybil-aware Federated Learning with Application to Face
Recognition [13.914187113334222]
Federated Learning(FL)は、顧客間で共同学習を行う機械学習パラダイムである。
マイナス面として、FLは研究を開始したばかりのセキュリティとプライバシに関する懸念を提起している。
本稿では,SAFL と呼ばれる FL の毒殺攻撃に対する新しい防御法を提案する。
論文 参考訳(メタデータ) (2023-11-07T21:06:06Z) - SPFL: A Self-purified Federated Learning Method Against Poisoning Attacks [12.580891810557482]
フェデレートラーニング(FL)は、プライバシを保存する分散トレーニングデータを引き出す上で魅力的なものだ。
本研究では, ベニグアのクライアントが, 局所的に精製されたモデルの信頼性のある歴史的特徴を活用できる自己浄化FL(SPFL)手法を提案する。
実験により,SPFLは様々な毒殺攻撃に対して,最先端のFL防御に優れることを示した。
論文 参考訳(メタデータ) (2023-09-19T13:31:33Z) - FLShield: A Validation Based Federated Learning Framework to Defend
Against Poisoning Attacks [1.8925617030516926]
フェデレーテッド・ラーニング(FL)は、自動運転車や医療など、多くの安全上重要な領域で使われている。
本稿では,FL参加者の良性データを用いて局所モデルを検証するFLShieldという新しいFLフレームワークを提案する。
我々はFLShieldフレームワークを様々な環境で評価し、様々な種類の毒やバックドア攻撃を阻止する効果を実証するために広範囲にわたる実験を行った。
論文 参考訳(メタデータ) (2023-08-10T19:29:44Z) - Mitigating Cross-client GANs-based Attack in Federated Learning [78.06700142712353]
マルチ分散マルチメディアクライアントは、グローバル共有モデルの共同学習のために、フェデレートラーニング(FL)を利用することができる。
FLは、GAN(C-GANs)をベースとしたクロスクライアント・ジェネレーティブ・敵ネットワーク(GANs)攻撃に苦しむ。
C-GAN攻撃に抵抗する現在のFLスキームを改善するためのFed-EDKD手法を提案する。
論文 参考訳(メタデータ) (2023-07-25T08:15:55Z) - WW-FL: Secure and Private Large-Scale Federated Learning [15.412475066687723]
Federated Learning(FL)は、クライアントデバイス上でトレーニングデータを保持することによって、データのプライバシを保証する、大規模分散機械学習の効率的なアプローチである。
最近の研究でFLの脆弱性が発見され、毒殺攻撃によってセキュリティとプライバシーの両方に影響を及ぼした。
データとグローバルモデルのプライバシを保証するために,セキュアなマルチパーティ計算と階層的なFLを組み合わせた,革新的なフレームワークであるWW-FLを提案する。
論文 参考訳(メタデータ) (2023-02-20T11:02:55Z) - Unraveling the Connections between Privacy and Certified Robustness in
Federated Learning Against Poisoning Attacks [68.20436971825941]
フェデレートラーニング(FL)は、分散ユーザのデータを活用するグローバルモデルを共同でトレーニングするための、効率的なパラダイムを提供する。
いくつかの研究により、FLは毒殺攻撃に弱いことが示されている。
ローカルユーザのプライバシを保護するため、FLは通常、差分プライベートな方法でトレーニングされる。
論文 参考訳(メタデータ) (2022-09-08T21:01:42Z) - Challenges and approaches for mitigating byzantine attacks in federated
learning [6.836162272841266]
フェデレーテッド・ラーニング(FL)は、多くの無線エンドユーザーデバイスがデータを使いながらグローバルモデルをトレーニングできる、魅力的な分散学習フレームワークである。
将来性はあるものの、従来の分散ネットワークの難易度の高い脅威であるビザンチン攻撃はFLにも有効であることが判明した。
そこで我々は,これらの防御策を打ち破り,その脅威を実証するための実験を行うために,重み攻撃と呼ばれる新たなビザンチン攻撃法を提案する。
論文 参考訳(メタデータ) (2021-12-29T09:24:05Z) - RoFL: Attestable Robustness for Secure Federated Learning [59.63865074749391]
フェデレートラーニング(Federated Learning)により、多数のクライアントが、プライベートデータを共有することなく、ジョイントモデルをトレーニングできる。
クライアントのアップデートの機密性を保証するため、フェデレートラーニングシステムはセキュアなアグリゲーションを採用している。
悪意のあるクライアントに対する堅牢性を向上させるセキュアなフェデレート学習システムであるRoFLを提案する。
論文 参考訳(メタデータ) (2021-07-07T15:42:49Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。