論文の概要: Can Decentralized Learning be more robust than Federated Learning?
- arxiv url: http://arxiv.org/abs/2303.03829v1
- Date: Tue, 7 Mar 2023 11:53:37 GMT
- ステータス: 処理完了
- システム内更新日: 2023-03-08 15:30:20.655202
- Title: Can Decentralized Learning be more robust than Federated Learning?
- Title(参考訳): 分散学習は連合学習よりも堅牢か?
- Authors: Mathilde Raynal and Dario Pasquini and Carmela Troncoso
- Abstract要約: 分散学習(DL)に対する2つのテライトニューアタックを導入する。
我々は、最先端の堅牢なDLプロトコルであるSelf-Centered Clippingに対する攻撃の効率を実証する。
ビザンチンのユーザに分散化が与える能力は、連邦学習よりもロバスト性が低い分散型学習職をもたらすことを示す。
- 参考スコア(独自算出の注目度): 8.873449722727026
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Decentralized Learning (DL) is a peer--to--peer learning approach that allows
a group of users to jointly train a machine learning model. To ensure
correctness, DL should be robust, i.e., Byzantine users must not be able to
tamper with the result of the collaboration. In this paper, we introduce two
\textit{new} attacks against DL where a Byzantine user can: make the network
converge to an arbitrary model of their choice, and exclude an arbitrary user
from the learning process. We demonstrate our attacks' efficiency against
Self--Centered Clipping, the state--of--the--art robust DL protocol. Finally,
we show that the capabilities decentralization grants to Byzantine users result
in decentralized learning \emph{always} providing less robustness than
federated learning.
- Abstract(参考訳): 分散学習(decentralized learning, dl)は、ピアツーピアの学習アプローチであり、複数のユーザが共同で機械学習モデルをトレーニングできる。
正確性を確保するため、dlは堅牢でなければならない。つまり、ビザンチンのユーザはコラボレーションの結果を改ざんしてはならない。
本稿では,ビザンチンのユーザが選択した任意のモデルにネットワークを収束させること,学習プロセスから任意のユーザを排除すること,という,dlに対する2つの \textit{new}攻撃を提案する。
我々は、最先端の堅牢なDLプロトコルであるセルフセンタークリッピングに対する攻撃の効率を実証する。
最後に,ビザンチンのユーザに対して分散化能力が与える影響が,連合学習よりもロバスト性の低い分散学習であることを示す。
関連論文リスト
- Privacy-Preserving Aggregation for Decentralized Learning with Byzantine-Robustness [5.735144760031169]
Byzantineクライアントは、任意のモデル更新を他のクライアントにブロードキャストすることで、学習プロセスを意図的に破壊する。
本稿では,ビザンチンの脅威に対するDLのセキュリティとプライバシを高めるために設計された,新しいDLプロトコルであるSecureDLを紹介する。
実験の結果,悪意者による攻撃においてもSecureDLは有効であることがわかった。
論文 参考訳(メタデータ) (2024-04-27T18:17:36Z) - Communication Efficient ConFederated Learning: An Event-Triggered SAGA
Approach [67.27031215756121]
Federated Learning(FL)は、さまざまなデータソース上のローカルデータを収集することなく、モデルトレーニングをターゲットとする機械学習パラダイムである。
単一のサーバを使用するStandard FLは、限られた数のユーザしかサポートできないため、学習能力の低下につながる。
本研究では,多数のユーザに対応するために,emphConfederated Learning(CFL)と呼ばれるマルチサーバFLフレームワークを検討する。
論文 参考訳(メタデータ) (2024-02-28T03:27:10Z) - FedDefender: Client-Side Attack-Tolerant Federated Learning [60.576073964874]
フェデレーション学習は、プライバシを損なうことなく、分散化されたデータソースからの学習を可能にする。
悪意のあるクライアントがトレーニングプロセスに干渉する、毒殺攻撃のモデル化には脆弱である。
我々はFedDefenderと呼ばれるクライアントサイドに焦点を当てた新しい防御機構を提案し、クライアントの堅牢なローカルモデルのトレーニングを支援する。
論文 参考訳(メタデータ) (2023-07-18T08:00:41Z) - On the (In)security of Peer-to-Peer Decentralized Machine Learning [16.671864590599288]
我々は、受動的・能動的に非中央集権的な敵に対して、新しい攻撃群を紹介した。
分散学習の提案者による主張とは裏腹に、分散学習は連合学習よりもセキュリティ上の優位性を提供していないことを実証する。
論文 参考訳(メタデータ) (2022-05-17T15:36:50Z) - RobustFed: A Truth Inference Approach for Robust Federated Learning [9.316565110931743]
フェデレートラーニング(Federated Learning)は、クライアントが中央サーバのオーケストレーションの下で協調的にグローバルなモデルをトレーニングすることを可能にするフレームワークである。
統合学習における集約ステップは、中央サーバがクライアントの動作を管理することができないため、敵攻撃に対して脆弱である。
本稿では,クラウドソーシングにおける真理推論手法に着想を得た新しいロバスト集約アルゴリズムを提案する。
論文 参考訳(メタデータ) (2021-07-18T09:34:57Z) - RoFL: Attestable Robustness for Secure Federated Learning [59.63865074749391]
フェデレートラーニング(Federated Learning)により、多数のクライアントが、プライベートデータを共有することなく、ジョイントモデルをトレーニングできる。
クライアントのアップデートの機密性を保証するため、フェデレートラーニングシステムはセキュアなアグリゲーションを採用している。
悪意のあるクライアントに対する堅牢性を向上させるセキュアなフェデレート学習システムであるRoFLを提案する。
論文 参考訳(メタデータ) (2021-07-07T15:42:49Z) - Secure Distributed Training at Scale [65.7538150168154]
ピアの存在下でのトレーニングには、ビザンティン寛容な特殊な分散トレーニングアルゴリズムが必要である。
本稿では,コミュニケーション効率を重視したセキュアな(ビザンチン耐性)分散トレーニングのための新しいプロトコルを提案する。
論文 参考訳(メタデータ) (2021-06-21T17:00:42Z) - Federated Robustness Propagation: Sharing Adversarial Robustness in
Federated Learning [98.05061014090913]
フェデレートラーニング(FL)は、生データを共有することなく、参加するユーザのセットから学習する、人気のある分散ラーニングスキーマとして登場した。
敵対的トレーニング(AT)は集中学習のための健全なソリューションを提供する。
既存のFL技術では,非IDユーザ間の対向的ロバスト性を効果的に広めることができないことを示す。
本稿では, バッチ正規化統計量を用いてロバスト性を伝達する, 単純かつ効果的な伝搬法を提案する。
論文 参考訳(メタデータ) (2021-06-18T15:52:33Z) - Byzantine-resilient Decentralized Stochastic Gradient Descent [85.15773446094576]
分散学習システムのビザンチンレジリエンスに関する詳細な研究について述べる。
ビザンチンフォールトトレランスを用いた分散学習を支援する新しいアルゴリズムUBARを提案する。
論文 参考訳(メタデータ) (2020-02-20T05:11:04Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。