論文の概要: On the Privacy of Decentralized Machine Learning
- arxiv url: http://arxiv.org/abs/2205.08443v1
- Date: Tue, 17 May 2022 15:36:50 GMT
- ステータス: 処理完了
- システム内更新日: 2022-05-18 14:57:13.383948
- Title: On the Privacy of Decentralized Machine Learning
- Title(参考訳): 分散機械学習のプライバシについて
- Authors: Dario Pasquini, Mathilde Raynal and Carmela Troncoso
- Abstract要約: ユーザのプライバシに影響を与える分散学習特性を識別する。
我々は、受動的・能動的に非中央集権的な敵に対して、新しい攻撃群を紹介した。
保護技術の現状を踏まえると、分散学習のプライバシー保護の構成には、いかなる利点も放棄する必要があることが明らかになっている。
- 参考スコア(独自算出の注目度): 8.873449722727026
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In this work, we carry out the first, in-depth, privacy analysis of
Decentralized Learning -- a collaborative machine learning framework aimed at
circumventing the main limitations of federated learning. We identify the
decentralized learning properties that affect users' privacy and we introduce a
suite of novel attacks for both passive and active decentralized adversaries.
We demonstrate that, contrary to what is claimed by decentralized learning
proposers, decentralized learning does not offer any security advantages over
more practical approaches such as federated learning. Rather, it tends to
degrade users' privacy by increasing the attack surface and enabling any user
in the system to perform powerful privacy attacks such as gradient inversion,
and even gain full control over honest users' local model. We also reveal that,
given the state of the art in protections, privacy-preserving configurations of
decentralized learning require abandoning any possible advantage over the
federated setup, completely defeating the objective of the decentralized
approach.
- Abstract(参考訳): 本研究では,分散学習の主要な制限を回避することを目的とした協調学習フレームワークである分散学習の,最初の詳細なプライバシー分析を行う。
我々は,ユーザのプライバシに影響を与える分散学習特性を特定し,パッシブおよびアクティブな分散化敵に対する一連の新しい攻撃を提案する。
分散学習の提案者による主張とは対照的に、分散学習は、連合学習のようなより実用的なアプローチに対して、セキュリティ上の利点を提供していないことを実証する。
むしろ、攻撃面を増やすことでユーザのプライバシを低下させ、システムの任意のユーザが勾配インバージョンのような強力なプライバシアタックを実行できるようにし、誠実なユーザのローカルモデルを完全にコントロールする傾向にある。
また、保護技術の現状を踏まえると、分散学習のプライバシー保護設定は、分散化アプローチの目的を完全に損なうため、連邦化よりも可能な優位性を捨てる必要があることも明らかにした。
関連論文リスト
- Decentralized Federated Learning: A Survey on Security and Privacy [15.790159174067174]
フェデレートラーニングは、プライバシー保護機能により、近年急速に発展し、人気が高まっている。
このアーキテクチャにおけるモデル更新と勾配の交換は、悪意のあるユーザに対する新たな攻撃面を提供する。
本研究は,分散化フェデレーション学習の信頼性と妥当性についても考察する。
論文 参考訳(メタデータ) (2024-01-25T23:35:47Z) - Exploring the Robustness of Decentralized Training for Large Language
Models [51.41850749014054]
大規模な言語モデルの分散トレーニングは、この技術を民主化するための効果的な方法として現れてきた。
本稿では,3つの主要な視点から,分散学習の堅牢性について考察する。
論文 参考訳(メタデータ) (2023-12-01T04:04:03Z) - Defending Against Poisoning Attacks in Federated Learning with
Blockchain [12.840821573271999]
ブロックチェーンと分散台帳技術に基づくセキュアで信頼性の高いフェデレーション学習システムを提案する。
本システムでは,オンチェーン型スマートコントラクトを利用したピアツーピア投票機構と報酬アンドスラッシュ機構を組み込んで,悪意ある行動の検出と検出を行う。
論文 参考訳(メタデータ) (2023-07-02T11:23:33Z) - When Decentralized Optimization Meets Federated Learning [41.58479981773202]
フェデレーション学習は、分散データから知識を抽出するための新しい学習パラダイムである。
既存のフェデレートされた学習アプローチのほとんどは、単一ポイントの障害に対して脆弱な集中的な設定に集中しています。
この問題に対処する別の戦略は、分散化された通信トポロジである。
論文 参考訳(メタデータ) (2023-06-05T03:51:14Z) - Can Decentralized Learning be more robust than Federated Learning? [8.873449722727026]
分散学習(DL)に対する2つのテライトニューアタックを導入する。
我々は、最先端の堅牢なDLプロトコルであるSelf-Centered Clippingに対する攻撃の効率を実証する。
ビザンチンのユーザに分散化が与える能力は、連邦学習よりもロバスト性が低い分散型学習職をもたらすことを示す。
論文 参考訳(メタデータ) (2023-03-07T11:53:37Z) - Finite-Time Consensus Learning for Decentralized Optimization with
Nonlinear Gossiping [77.53019031244908]
本稿では,非線形ゴシップ(NGO)に基づく分散学習フレームワークを提案する。
コミュニケーション遅延とランダム化チャットが学習にどう影響するかを解析することで,実践的なバリエーションの導出が可能となる。
論文 参考訳(メタデータ) (2021-11-04T15:36:25Z) - Secure Distributed Training at Scale [65.7538150168154]
ピアの存在下でのトレーニングには、ビザンティン寛容な特殊な分散トレーニングアルゴリズムが必要である。
本稿では,コミュニケーション効率を重視したセキュアな(ビザンチン耐性)分散トレーニングのための新しいプロトコルを提案する。
論文 参考訳(メタデータ) (2021-06-21T17:00:42Z) - Consensus Control for Decentralized Deep Learning [72.50487751271069]
ディープラーニングモデルの分散トレーニングは、ネットワーク上のデバイス上での学習と、大規模計算クラスタへの効率的なスケーリングを可能にする。
理論上、トレーニングコンセンサス距離が重要な量よりも低い場合、分散化されたトレーニングは集中的なトレーニングよりも早く収束することを示す。
私たちの経験的な洞察は、パフォーマンス低下を軽減するために、より分散化されたトレーニングスキームの原則設計を可能にします。
論文 参考訳(メタデータ) (2021-02-09T13:58:33Z) - Toward Multiple Federated Learning Services Resource Sharing in Mobile
Edge Networks [88.15736037284408]
本稿では,マルチアクセスエッジコンピューティングサーバにおいて,複数のフェデレーション付き学習サービスの新たなモデルについて検討する。
共同資源最適化とハイパーラーニング率制御の問題,すなわちMS-FEDLを提案する。
シミュレーションの結果,提案アルゴリズムの収束性能を実証した。
論文 参考訳(メタデータ) (2020-11-25T01:29:41Z) - Byzantine-resilient Decentralized Stochastic Gradient Descent [85.15773446094576]
分散学習システムのビザンチンレジリエンスに関する詳細な研究について述べる。
ビザンチンフォールトトレランスを用いた分散学習を支援する新しいアルゴリズムUBARを提案する。
論文 参考訳(メタデータ) (2020-02-20T05:11:04Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。