論文の概要: Decentralized Federated Learning: A Survey on Security and Privacy
- arxiv url: http://arxiv.org/abs/2401.17319v1
- Date: Thu, 25 Jan 2024 23:35:47 GMT
- ステータス: 処理完了
- システム内更新日: 2024-02-04 05:20:19.092613
- Title: Decentralized Federated Learning: A Survey on Security and Privacy
- Title(参考訳): 分散連合学習: セキュリティとプライバシに関する調査
- Authors: Ehsan Hallaji and Roozbeh Razavi-Far and Mehrdad Saif and Boyu Wang
and Qiang Yang
- Abstract要約: フェデレートラーニングは、プライバシー保護機能により、近年急速に発展し、人気が高まっている。
このアーキテクチャにおけるモデル更新と勾配の交換は、悪意のあるユーザに対する新たな攻撃面を提供する。
本研究は,分散化フェデレーション学習の信頼性と妥当性についても考察する。
- 参考スコア(独自算出の注目度): 15.790159174067174
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Federated learning has been rapidly evolving and gaining popularity in recent
years due to its privacy-preserving features, among other advantages.
Nevertheless, the exchange of model updates and gradients in this architecture
provides new attack surfaces for malicious users of the network which may
jeopardize the model performance and user and data privacy. For this reason,
one of the main motivations for decentralized federated learning is to
eliminate server-related threats by removing the server from the network and
compensating for it through technologies such as blockchain. However, this
advantage comes at the cost of challenging the system with new privacy threats.
Thus, performing a thorough security analysis in this new paradigm is
necessary. This survey studies possible variations of threats and adversaries
in decentralized federated learning and overviews the potential defense
mechanisms. Trustability and verifiability of decentralized federated learning
are also considered in this study.
- Abstract(参考訳): フェデレーション学習は、プライバシ保護機能などによって、近年急速に進化し、人気が高まっている。
それでも、このアーキテクチャにおけるモデル更新と勾配の交換は、モデルのパフォーマンスとユーザおよびデータプライバシを脅かす可能性のある、悪意のあるネットワークユーザに対する新たな攻撃面を提供する。
この理由から、分散連合学習の主な動機の1つは、サーバーをネットワークから取り除き、ブロックチェーンのような技術で補償することで、サーバー関連の脅威を取り除くことである。
しかし、この利点は、新しいプライバシーの脅威でシステムに挑戦するコストにかかっている。
したがって、この新しいパラダイムで徹底的なセキュリティ分析を行う必要がある。
本調査は,分散連帯学習における脅威と敵意の変動の可能性を調査し,潜在的防衛メカニズムを概観する。
本研究は,分散化フェデレーション学習の信頼性と妥当性についても考察する。
関連論文リスト
- FEDLAD: Federated Evaluation of Deep Leakage Attacks and Defenses [50.921333548391345]
フェデレーテッド・ラーニング(Federated Learning)は、分散型機械学習パラダイムをプライバシ保護するものだ。
近年の研究では、Deep Leakageと呼ばれる勾配技術によって、民間の真実データを復元できることが判明している。
本稿では、Deep Leakage攻撃と防御を評価するための総合的なベンチマークであるFEDLAD Framework(Federated Evaluation of Deep Leakage Attacks and Defenses)を紹介する。
論文 参考訳(メタデータ) (2024-11-05T11:42:26Z) - Federated Learning with Blockchain-Enhanced Machine Unlearning: A Trustworthy Approach [20.74679353443655]
我々は、ブロックチェーンをフェデレートされた学習と融合させるフレームワークを導入し、未学習の要求とアクションの不変記録を確実にする。
私たちの重要なコントリビューションは、アンラーニングプロセスの認証機構、データセキュリティとプライバシの強化、データ管理の最適化などです。
論文 参考訳(メタデータ) (2024-05-27T04:35:49Z) - Enhancing Trust and Privacy in Distributed Networks: A Comprehensive Survey on Blockchain-based Federated Learning [51.13534069758711]
ブロックチェーンのような分散型アプローチは、複数のエンティティ間でコンセンサスメカニズムを実装することで、魅力的なソリューションを提供する。
フェデレートラーニング(FL)は、参加者がデータのプライバシを保護しながら、協力的にモデルをトレーニングすることを可能にする。
本稿では,ブロックチェーンのセキュリティ機能とFLのプライバシ保護モデルトレーニング機能の相乗効果について検討する。
論文 参考訳(メタデータ) (2024-03-28T07:08:26Z) - Blockchain-enabled Trustworthy Federated Unlearning [50.01101423318312]
フェデレートアンラーニング(Federated Unlearning)は、分散クライアントのデータオーナシップを保護するための、有望なパラダイムである。
既存の作業では、分散クライアントからの履歴モデルパラメータを保持するために、中央サーバが必要である。
本稿では,ブロックチェーンによる信頼性の高いフェデレーションアンラーニングフレームワークを提案する。
論文 参考訳(メタデータ) (2024-01-29T07:04:48Z) - Security and Privacy Issues and Solutions in Federated Learning for
Digital Healthcare [0.0]
フェデレートラーニング(Federated Learning)の幅広い攻撃面に基づいて,脆弱性,攻撃,防御を提示する。
我々は、より堅牢なFLに向けた新しい研究の方向性を期待する。
論文 参考訳(メタデータ) (2024-01-16T16:07:53Z) - Security and Privacy Issues of Federated Learning [0.0]
フェデレートラーニング(FL)は、データのプライバシと機密性に対処するための有望なアプローチとして登場した。
本稿では,各種機械学習モデルを対象としたフェデレートラーニング(FL)におけるセキュリティとプライバシの包括的分類について述べる。
論文 参考訳(メタデータ) (2023-07-22T22:51:07Z) - Federated and Transfer Learning: A Survey on Adversaries and Defense
Mechanisms [4.5441516134546385]
この研究の主な目的は、フェデレーションと転送学習を使用するシステムのプライバシとパフォーマンスを損なう可能性のある潜在的な脆弱性と防御メカニズムを明らかにすることである。
論文 参考訳(メタデータ) (2022-07-05T22:07:26Z) - On the (In)security of Peer-to-Peer Decentralized Machine Learning [16.671864590599288]
我々は、受動的・能動的に非中央集権的な敵に対して、新しい攻撃群を紹介した。
分散学習の提案者による主張とは裏腹に、分散学習は連合学習よりもセキュリティ上の優位性を提供していないことを実証する。
論文 参考訳(メタデータ) (2022-05-17T15:36:50Z) - RoFL: Attestable Robustness for Secure Federated Learning [59.63865074749391]
フェデレートラーニング(Federated Learning)により、多数のクライアントが、プライベートデータを共有することなく、ジョイントモデルをトレーニングできる。
クライアントのアップデートの機密性を保証するため、フェデレートラーニングシステムはセキュアなアグリゲーションを採用している。
悪意のあるクライアントに対する堅牢性を向上させるセキュアなフェデレート学習システムであるRoFLを提案する。
論文 参考訳(メタデータ) (2021-07-07T15:42:49Z) - Privacy and Robustness in Federated Learning: Attacks and Defenses [74.62641494122988]
このトピックに関する最初の包括的な調査を実施します。
FLの概念の簡潔な紹介と、1脅威モデル、2堅牢性に対する中毒攻撃と防御、3プライバシーに対する推論攻撃と防御、というユニークな分類学を通じて、私たちはこの重要なトピックのアクセス可能なレビューを提供します。
論文 参考訳(メタデータ) (2020-12-07T12:11:45Z) - Byzantine-resilient Decentralized Stochastic Gradient Descent [85.15773446094576]
分散学習システムのビザンチンレジリエンスに関する詳細な研究について述べる。
ビザンチンフォールトトレランスを用いた分散学習を支援する新しいアルゴリズムUBARを提案する。
論文 参考訳(メタデータ) (2020-02-20T05:11:04Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。