論文の概要: Brave: Byzantine-Resilient and Privacy-Preserving Peer-to-Peer Federated
Learning
- arxiv url: http://arxiv.org/abs/2401.05562v1
- Date: Wed, 10 Jan 2024 22:07:40 GMT
- ステータス: 処理完了
- システム内更新日: 2024-01-13 01:55:31.512290
- Title: Brave: Byzantine-Resilient and Privacy-Preserving Peer-to-Peer Federated
Learning
- Title(参考訳): Brave:ビザンチン耐性とプライバシ保護によるピアツーピアフェデレーション学習
- Authors: Zhangchen Xu, Fengqing Jiang, Luyao Niu, Jinyuan Jia, Radha Poovendran
- Abstract要約: フェデレーション・ラーニング(FL)は、複数の参加者がプライベートデータを共有せずにグローバルな機械学習モデルをトレーニングすることを可能にする。
我々は, P2P FL のビザンチンレジリエンスとプライバシ保護性を保証するプロトコルである Brave を開発した。
ブレーブは、誠実だが悪質な敵が、自分のモデルを観察することによって、他の参加者のプライベートデータを推測できないことを確立することで、プライバシを保護していることを示す。
- 参考スコア(独自算出の注目度): 29.62711713976123
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Federated learning (FL) enables multiple participants to train a global
machine learning model without sharing their private training data.
Peer-to-peer (P2P) FL advances existing centralized FL paradigms by eliminating
the server that aggregates local models from participants and then updates the
global model. However, P2P FL is vulnerable to (i) honest-but-curious
participants whose objective is to infer private training data of other
participants, and (ii) Byzantine participants who can transmit arbitrarily
manipulated local models to corrupt the learning process. P2P FL schemes that
simultaneously guarantee Byzantine resilience and preserve privacy have been
less studied. In this paper, we develop Brave, a protocol that ensures
Byzantine Resilience And privacy-preserving property for P2P FL in the presence
of both types of adversaries. We show that Brave preserves privacy by
establishing that any honest-but-curious adversary cannot infer other
participants' private data by observing their models. We further prove that
Brave is Byzantine-resilient, which guarantees that all benign participants
converge to an identical model that deviates from a global model trained
without Byzantine adversaries by a bounded distance. We evaluate Brave against
three state-of-the-art adversaries on a P2P FL for image classification tasks
on benchmark datasets CIFAR10 and MNIST. Our results show that the global model
learned with Brave in the presence of adversaries achieves comparable
classification accuracy to a global model trained in the absence of any
adversary.
- Abstract(参考訳): フェデレートラーニング(FL)は、複数の参加者がプライベートトレーニングデータを共有することなく、グローバルな機械学習モデルをトレーニングすることを可能にする。
Peer-to-peer (P2P) FLは、参加者からローカルモデルを集約したサーバを排除し、グローバルモデルを更新することで、既存の集中型FLパラダイムを前進させる。
しかし、P2P FLは脆弱である。
(i)他の参加者の私的な研修データを推測することを目的とする正直だが厳密な参加者
(ii) 任意に操作された局所モデルを送信することができるビザンチン参加者は、学習プロセスを崩壊させる。
ビザンチンのレジリエンスとプライバシー保護を同時に保証するP2P FLスキームは、あまり研究されていない。
本稿では,p2p flに対するビザンチンのレジリエンスとプライバシ保護性を保証するプロトコルであるbraveを開発した。
ブレーブは、誠実だが悪質な敵が、自分のモデルを観察することによって、他の参加者のプライベートデータを推測できないことを確立することにより、プライバシを保護していることを示す。
我々はさらに、braveがビザンチンレジリエントであることを証明し、すべての良質な参加者が、ビザンチンの敵を境界距離で持たずに訓練されたグローバルモデルから逸脱する同一のモデルに収束することを保証する。
我々は,ベンチマークデータセットCIFAR10とMNISTの画像分類タスクに対して,P2P FL上の3つの最先端の敵に対してブレーブを評価する。
その結果, 敵の存在下でbraveが学習したグローバルモデルは, 敵がいない時に訓練されたグローバルモデルと同等の分類精度が得られることがわかった。
関連論文リスト
- No Vandalism: Privacy-Preserving and Byzantine-Robust Federated Learning [18.1129191782913]
フェデレートされた学習により、複数のクライアントがプライベートデータを共有せずに1つの機械学習モデルを共同でトレーニングし、プライバシ保護を提供する。
従来の連合学習は、毒性攻撃に弱いため、モデルの性能を低下させるだけでなく、悪意のあるバックドアを埋め込むこともできる。
本稿では,悪意ある参加者からの攻撃に対して,有害行為(NoV)のない環境を提供するために,プライバシ保護とビザンチン損なうフェデレーション・ラーニング・スキームを構築することを目的とする。
論文 参考訳(メタデータ) (2024-06-03T07:59:10Z) - Tunable Soft Prompts are Messengers in Federated Learning [55.924749085481544]
フェデレートラーニング(FL)は、複数の参加者が分散データソースを使用して機械学習モデルを協調的にトレーニングすることを可能にする。
FLにおけるモデルプライバシ保護の欠如は無視できない課題となっている。
そこで本研究では,ソフトプロンプトによって参加者間の情報交換を実現する新しいFLトレーニング手法を提案する。
論文 参考訳(メタデータ) (2023-11-12T11:01:10Z) - Client-side Gradient Inversion Against Federated Learning from Poisoning [59.74484221875662]
フェデレートラーニング(FL)により、分散参加者は、データを中央サーバに直接共有することなく、グローバルモデルをトレーニングできる。
近年の研究では、FLは元のトレーニングサンプルの再構築を目的とした勾配反転攻撃(GIA)に弱いことが判明している。
本稿では,クライアント側から起動可能な新たな攻撃手法であるクライアント側中毒性グレーディエント・インバージョン(CGI)を提案する。
論文 参考訳(メタデータ) (2023-09-14T03:48:27Z) - Backdoor Attacks in Peer-to-Peer Federated Learning [11.235386862864397]
Peer-to-Peer Federated Learning (P2PFL)は、プライバシと信頼性の両面でアドバンテージを提供する。
本稿では,P2PFLに対する新たなバックドア攻撃を提案する。
論文 参考訳(メタデータ) (2023-01-23T21:49:28Z) - FLIP: A Provable Defense Framework for Backdoor Mitigation in Federated
Learning [66.56240101249803]
我々は,クライアントの強固化がグローバルモデル(および悪意のあるクライアント)に与える影響について検討する。
本稿では, 逆エンジニアリングによる防御手法を提案するとともに, 堅牢性を保証して, 改良を実現できることを示す。
競合する8つのSOTA防御法について, 単発および連続のFLバックドア攻撃に対して, 提案手法の実証的優位性を示した。
論文 参考訳(メタデータ) (2022-10-23T22:24:03Z) - CANIFE: Crafting Canaries for Empirical Privacy Measurement in Federated
Learning [77.27443885999404]
Federated Learning(FL)は、分散環境で機械学習モデルをトレーニングするための設定である。
本稿では,訓練ラウンドの経験的プライバシを評価するために,強敵による慎重なサンプル作成手法であるCANIFEを提案する。
論文 参考訳(メタデータ) (2022-10-06T13:30:16Z) - Certified Robustness in Federated Learning [54.03574895808258]
我々は,フェデレーショントレーニングとパーソナライゼーション,および認定ロバストネスの相互作用について検討した。
単純なフェデレーション平均化技術は, より正確であるだけでなく, より精度の高いロバストモデルの構築にも有効であることがわかった。
論文 参考訳(メタデータ) (2022-06-06T12:10:53Z) - FedH2L: Federated Learning with Model and Statistical Heterogeneity [75.61234545520611]
フェデレートラーニング(FL)は、分散参加者が個々のデータのプライバシを犠牲にすることなく、強力なグローバルモデルを集合的に学習することを可能にする。
我々はFedH2Lを導入し、これはモデルアーキテクチャに非依存であり、参加者間で異なるデータ分散に対して堅牢である。
パラメータや勾配を共有するアプローチとは対照的に、FedH2Lは相互蒸留に依存し、参加者間で共有シードセットの後方のみを分散的に交換する。
論文 参考訳(メタデータ) (2021-01-27T10:10:18Z) - Dynamic Defense Against Byzantine Poisoning Attacks in Federated
Learning [11.117880929232575]
フェデレート・ラーニングはビザチンによる敵対的な攻撃に弱い。
本稿では,これらのクライアントを動的に破棄する動的集約演算子を提案する。
その結果,集約するクライアントの動的選択により,グローバル学習モデルの性能が向上することが示唆された。
論文 参考訳(メタデータ) (2020-07-29T18:02:11Z) - Byzantine-Resilient Secure Federated Learning [2.578242050187029]
本稿では,セキュアなフェデレーション学習のための単一サーバByzantine-Resilient secure aggregate framework(BREA)を提案する。
BREAは、Byzantine-Resilience Consistence Consistenceを同時に保証するために、統合的で検証可能な、安全なモデルアグリゲーションアプローチに基づいている。
実験では,ビザンチン系ユーザの存在下での収束を実証し,従来のフェデレート学習ベンチマークに匹敵する精度を示した。
論文 参考訳(メタデータ) (2020-07-21T22:15:11Z) - Salvaging Federated Learning by Local Adaptation [26.915147034955925]
フェデレートラーニング(Federated Learning, FL)は、機密データに基づいてMLモデルをトレーニングする手法である。
個人がFLに参加する動機があるのか?」と問いかける。
次単語予測のような標準的なタスクでは、フェデレーションモデルがローカルでトレーニングできるモデルよりもデータ上で精度が低いため、多くの参加者がFLから恩恵を受けないことが示される。
我々は, ファインチューニング, マルチタスク学習, 知識蒸留という, フェデレーションモデルの局所的適応のための3つの手法を評価する。
論文 参考訳(メタデータ) (2020-02-12T01:56:16Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。