論文の概要: On the Privacy of Decentralized Machine Learning
- arxiv url: http://arxiv.org/abs/2205.08443v1
- Date: Tue, 17 May 2022 15:36:50 GMT
- ステータス: 処理完了
- システム内更新日: 2022-05-18 14:57:13.383948
- Title: On the Privacy of Decentralized Machine Learning
- Title(参考訳): 分散機械学習のプライバシについて
- Authors: Dario Pasquini, Mathilde Raynal and Carmela Troncoso
- Abstract要約: ユーザのプライバシに影響を与える分散学習特性を識別する。
我々は、受動的・能動的に非中央集権的な敵に対して、新しい攻撃群を紹介した。
保護技術の現状を踏まえると、分散学習のプライバシー保護の構成には、いかなる利点も放棄する必要があることが明らかになっている。
- 参考スコア(独自算出の注目度): 8.873449722727026
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In this work, we carry out the first, in-depth, privacy analysis of
Decentralized Learning -- a collaborative machine learning framework aimed at
circumventing the main limitations of federated learning. We identify the
decentralized learning properties that affect users' privacy and we introduce a
suite of novel attacks for both passive and active decentralized adversaries.
We demonstrate that, contrary to what is claimed by decentralized learning
proposers, decentralized learning does not offer any security advantages over
more practical approaches such as federated learning. Rather, it tends to
degrade users' privacy by increasing the attack surface and enabling any user
in the system to perform powerful privacy attacks such as gradient inversion,
and even gain full control over honest users' local model. We also reveal that,
given the state of the art in protections, privacy-preserving configurations of
decentralized learning require abandoning any possible advantage over the
federated setup, completely defeating the objective of the decentralized
approach.
- Abstract(参考訳): 本研究では,分散学習の主要な制限を回避することを目的とした協調学習フレームワークである分散学習の,最初の詳細なプライバシー分析を行う。
我々は,ユーザのプライバシに影響を与える分散学習特性を特定し,パッシブおよびアクティブな分散化敵に対する一連の新しい攻撃を提案する。
分散学習の提案者による主張とは対照的に、分散学習は、連合学習のようなより実用的なアプローチに対して、セキュリティ上の利点を提供していないことを実証する。
むしろ、攻撃面を増やすことでユーザのプライバシを低下させ、システムの任意のユーザが勾配インバージョンのような強力なプライバシアタックを実行できるようにし、誠実なユーザのローカルモデルを完全にコントロールする傾向にある。
また、保護技術の現状を踏まえると、分散学習のプライバシー保護設定は、分散化アプローチの目的を完全に損なうため、連邦化よりも可能な優位性を捨てる必要があることも明らかにした。
関連論文リスト
- Edge-Only Universal Adversarial Attacks in Distributed Learning [49.546479320670464]
本研究では,攻撃者がモデルのエッジ部分のみにアクセスした場合に,ユニバーサルな敵攻撃を発生させる可能性について検討する。
提案手法は, エッジ側の重要な特徴を活用することで, 未知のクラウド部分において, 効果的な誤予測を誘導できることを示唆する。
ImageNetの結果は、未知のクラウド部分に対する強力な攻撃伝達性を示している。
論文 参考訳(メタデータ) (2024-11-15T11:06:24Z) - FEDLAD: Federated Evaluation of Deep Leakage Attacks and Defenses [50.921333548391345]
フェデレーテッド・ラーニング(Federated Learning)は、分散型機械学習パラダイムをプライバシ保護するものだ。
近年の研究では、Deep Leakageと呼ばれる勾配技術によって、民間の真実データを復元できることが判明している。
本稿では、Deep Leakage攻撃と防御を評価するための総合的なベンチマークであるFEDLAD Framework(Federated Evaluation of Deep Leakage Attacks and Defenses)を紹介する。
論文 参考訳(メタデータ) (2024-11-05T11:42:26Z) - Fantastyc: Blockchain-based Federated Learning Made Secure and Practical [0.7083294473439816]
フェデレートラーニング(Federated Learning)は、クライアントがローカルデータを共有せずに、中央サーバのオーケストレーション下で機械学習モデルを協調的にトレーニングすることを可能にする分散フレームワークである。
このフレームワークの中心性は、ブロックチェーンベースのフェデレーション学習アプローチによって、文献で扱われる障害点を表している。
この課題に対処するために設計されたFantastycを提案する。
論文 参考訳(メタデータ) (2024-06-05T20:01:49Z) - Enhancing Trust and Privacy in Distributed Networks: A Comprehensive Survey on Blockchain-based Federated Learning [51.13534069758711]
ブロックチェーンのような分散型アプローチは、複数のエンティティ間でコンセンサスメカニズムを実装することで、魅力的なソリューションを提供する。
フェデレートラーニング(FL)は、参加者がデータのプライバシを保護しながら、協力的にモデルをトレーニングすることを可能にする。
本稿では,ブロックチェーンのセキュリティ機能とFLのプライバシ保護モデルトレーニング機能の相乗効果について検討する。
論文 参考訳(メタデータ) (2024-03-28T07:08:26Z) - Initialisation and Network Effects in Decentralised Federated Learning [1.5961625979922607]
分散フェデレーション学習は、通信デバイスの分散ネットワーク上で、個々の機械学習モデルの協調トレーニングを可能にする。
このアプローチは、集中的な調整を避け、データのプライバシを高め、単一障害点のリスクを取り除く。
本稿では,基盤となる通信ネットワークの固有ベクトル集中度分布に基づく,ニューラルネットワークの非協調初期化戦略を提案する。
論文 参考訳(メタデータ) (2024-03-23T14:24:36Z) - Decentralized Federated Learning: A Survey on Security and Privacy [15.790159174067174]
フェデレートラーニングは、プライバシー保護機能により、近年急速に発展し、人気が高まっている。
このアーキテクチャにおけるモデル更新と勾配の交換は、悪意のあるユーザに対する新たな攻撃面を提供する。
本研究は,分散化フェデレーション学習の信頼性と妥当性についても考察する。
論文 参考訳(メタデータ) (2024-01-25T23:35:47Z) - Exploring the Robustness of Decentralized Training for Large Language
Models [51.41850749014054]
大規模な言語モデルの分散トレーニングは、この技術を民主化するための効果的な方法として現れてきた。
本稿では,3つの主要な視点から,分散学習の堅牢性について考察する。
論文 参考訳(メタデータ) (2023-12-01T04:04:03Z) - When Decentralized Optimization Meets Federated Learning [41.58479981773202]
フェデレーション学習は、分散データから知識を抽出するための新しい学習パラダイムである。
既存のフェデレートされた学習アプローチのほとんどは、単一ポイントの障害に対して脆弱な集中的な設定に集中しています。
この問題に対処する別の戦略は、分散化された通信トポロジである。
論文 参考訳(メタデータ) (2023-06-05T03:51:14Z) - Finite-Time Consensus Learning for Decentralized Optimization with
Nonlinear Gossiping [77.53019031244908]
本稿では,非線形ゴシップ(NGO)に基づく分散学習フレームワークを提案する。
コミュニケーション遅延とランダム化チャットが学習にどう影響するかを解析することで,実践的なバリエーションの導出が可能となる。
論文 参考訳(メタデータ) (2021-11-04T15:36:25Z) - Byzantine-resilient Decentralized Stochastic Gradient Descent [85.15773446094576]
分散学習システムのビザンチンレジリエンスに関する詳細な研究について述べる。
ビザンチンフォールトトレランスを用いた分散学習を支援する新しいアルゴリズムUBARを提案する。
論文 参考訳(メタデータ) (2020-02-20T05:11:04Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。