論文の概要: On the (In)security of Peer-to-Peer Decentralized Machine Learning
- arxiv url: http://arxiv.org/abs/2205.08443v3
- Date: Fri, 10 Nov 2023 07:47:56 GMT
- ステータス: 処理完了
- システム内更新日: 2023-11-13 18:54:40.563575
- Title: On the (In)security of Peer-to-Peer Decentralized Machine Learning
- Title(参考訳): ピアツーピア分散機械学習(peer-to-peer decentralized machine learning)のセキュリティについて
- Authors: Dario Pasquini, Mathilde Raynal and Carmela Troncoso
- Abstract要約: 我々は、受動的・能動的に非中央集権的な敵に対して、新しい攻撃群を紹介した。
分散学習の提案者による主張とは裏腹に、分散学習は連合学習よりもセキュリティ上の優位性を提供していないことを実証する。
- 参考スコア(独自算出の注目度): 16.671864590599288
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In this work, we carry out the first, in-depth, privacy analysis of
Decentralized Learning -- a collaborative machine learning framework aimed at
addressing the main limitations of federated learning. We introduce a suite of
novel attacks for both passive and active decentralized adversaries. We
demonstrate that, contrary to what is claimed by decentralized learning
proposers, decentralized learning does not offer any security advantage over
federated learning. Rather, it increases the attack surface enabling any user
in the system to perform privacy attacks such as gradient inversion, and even
gain full control over honest users' local model. We also show that, given the
state of the art in protections, privacy-preserving configurations of
decentralized learning require fully connected networks, losing any practical
advantage over the federated setup and therefore completely defeating the
objective of the decentralized approach.
- Abstract(参考訳): 本研究では,分散学習の主要な制限に対処することを目的とした協調学習フレームワークである分散学習の,最初の詳細なプライバシー分析を行う。
我々は、パッシブおよびアクティブな分散した敵に対する一連の新しい攻撃について紹介する。
分散学習の提案者による主張とは対照的に,分散学習は連合学習よりもセキュリティ上の利点をもたらさないことを実証する。
むしろ、システム内のすべてのユーザーがグラデーションインバージョンのようなプライバシ攻撃を実行し、正直なユーザのローカルモデルを完全にコントロールすることを可能にする攻撃面を増加させる。
また,保護の現状を考えると,分散学習のプライバシ保存構成が完全接続ネットワークを必要とすること,フェデレーション設定に対する実用上の優位性が失われること,それゆえ分散学習の目的を完全に打ち破ることも示されている。
関連論文リスト
- Decentralized Federated Learning: A Survey on Security and Privacy [15.790159174067174]
フェデレートラーニングは、プライバシー保護機能により、近年急速に発展し、人気が高まっている。
このアーキテクチャにおけるモデル更新と勾配の交換は、悪意のあるユーザに対する新たな攻撃面を提供する。
本研究は,分散化フェデレーション学習の信頼性と妥当性についても考察する。
論文 参考訳(メタデータ) (2024-01-25T23:35:47Z) - Exploring the Robustness of Decentralized Training for Large Language
Models [51.41850749014054]
大規模な言語モデルの分散トレーニングは、この技術を民主化するための効果的な方法として現れてきた。
本稿では,3つの主要な視点から,分散学習の堅牢性について考察する。
論文 参考訳(メタデータ) (2023-12-01T04:04:03Z) - Defending Against Poisoning Attacks in Federated Learning with
Blockchain [12.840821573271999]
ブロックチェーンと分散台帳技術に基づくセキュアで信頼性の高いフェデレーション学習システムを提案する。
本システムでは,オンチェーン型スマートコントラクトを利用したピアツーピア投票機構と報酬アンドスラッシュ機構を組み込んで,悪意ある行動の検出と検出を行う。
論文 参考訳(メタデータ) (2023-07-02T11:23:33Z) - When Decentralized Optimization Meets Federated Learning [41.58479981773202]
フェデレーション学習は、分散データから知識を抽出するための新しい学習パラダイムである。
既存のフェデレートされた学習アプローチのほとんどは、単一ポイントの障害に対して脆弱な集中的な設定に集中しています。
この問題に対処する別の戦略は、分散化された通信トポロジである。
論文 参考訳(メタデータ) (2023-06-05T03:51:14Z) - Can Decentralized Learning be more robust than Federated Learning? [8.873449722727026]
分散学習(DL)に対する2つのテライトニューアタックを導入する。
我々は、最先端の堅牢なDLプロトコルであるSelf-Centered Clippingに対する攻撃の効率を実証する。
ビザンチンのユーザに分散化が与える能力は、連邦学習よりもロバスト性が低い分散型学習職をもたらすことを示す。
論文 参考訳(メタデータ) (2023-03-07T11:53:37Z) - Finite-Time Consensus Learning for Decentralized Optimization with
Nonlinear Gossiping [77.53019031244908]
本稿では,非線形ゴシップ(NGO)に基づく分散学習フレームワークを提案する。
コミュニケーション遅延とランダム化チャットが学習にどう影響するかを解析することで,実践的なバリエーションの導出が可能となる。
論文 参考訳(メタデータ) (2021-11-04T15:36:25Z) - Secure Distributed Training at Scale [65.7538150168154]
ピアの存在下でのトレーニングには、ビザンティン寛容な特殊な分散トレーニングアルゴリズムが必要である。
本稿では,コミュニケーション効率を重視したセキュアな(ビザンチン耐性)分散トレーニングのための新しいプロトコルを提案する。
論文 参考訳(メタデータ) (2021-06-21T17:00:42Z) - Consensus Control for Decentralized Deep Learning [72.50487751271069]
ディープラーニングモデルの分散トレーニングは、ネットワーク上のデバイス上での学習と、大規模計算クラスタへの効率的なスケーリングを可能にする。
理論上、トレーニングコンセンサス距離が重要な量よりも低い場合、分散化されたトレーニングは集中的なトレーニングよりも早く収束することを示す。
私たちの経験的な洞察は、パフォーマンス低下を軽減するために、より分散化されたトレーニングスキームの原則設計を可能にします。
論文 参考訳(メタデータ) (2021-02-09T13:58:33Z) - Toward Multiple Federated Learning Services Resource Sharing in Mobile
Edge Networks [88.15736037284408]
本稿では,マルチアクセスエッジコンピューティングサーバにおいて,複数のフェデレーション付き学習サービスの新たなモデルについて検討する。
共同資源最適化とハイパーラーニング率制御の問題,すなわちMS-FEDLを提案する。
シミュレーションの結果,提案アルゴリズムの収束性能を実証した。
論文 参考訳(メタデータ) (2020-11-25T01:29:41Z) - Byzantine-resilient Decentralized Stochastic Gradient Descent [85.15773446094576]
分散学習システムのビザンチンレジリエンスに関する詳細な研究について述べる。
ビザンチンフォールトトレランスを用いた分散学習を支援する新しいアルゴリズムUBARを提案する。
論文 参考訳(メタデータ) (2020-02-20T05:11:04Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。