論文の概要: An Accurate, Scalable and Verifiable Protocol for Federated
Differentially Private Averaging
- arxiv url: http://arxiv.org/abs/2006.07218v3
- Date: Fri, 28 Oct 2022 14:36:46 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-22 03:43:24.698504
- Title: An Accurate, Scalable and Verifiable Protocol for Federated
Differentially Private Averaging
- Title(参考訳): Federated Differentially Private Averagingのための正確でスケーラブルで検証可能なプロトコル
- Authors: C\'esar Sabater, Aur\'elien Bellet, Jan Ramon
- Abstract要約: 我々は、参加者に提供されるプライバシー保証と、悪意ある当事者の存在下での計算の正しさに関する課題に取り組む。
最初のコントリビューションはスケーラブルなプロトコルで、参加者はネットワークグラフのエッジに沿って関連するガウスノイズを交換する。
第2のコントリビューションでは,プロトコルの効率性とプライバシ保証を損なうことなく,計算の正確性を証明することができる。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Learning from data owned by several parties, as in federated learning, raises
challenges regarding the privacy guarantees provided to participants and the
correctness of the computation in the presence of malicious parties. We tackle
these challenges in the context of distributed averaging, an essential building
block of federated learning algorithms. Our first contribution is a scalable
protocol in which participants exchange correlated Gaussian noise along the
edges of a network graph, complemented by independent noise added by each
party. We analyze the differential privacy guarantees of our protocol and the
impact of the graph topology under colluding malicious parties, showing that we
can nearly match the utility of the trusted curator model even when each honest
party communicates with only a logarithmic number of other parties chosen at
random. This is in contrast with protocols in the local model of privacy (with
lower utility) or based on secure aggregation (where all pairs of users need to
exchange messages). Our second contribution enables users to prove the
correctness of their computations without compromising the efficiency and
privacy guarantees of the protocol. Our verification protocol relies on
standard cryptographic primitives like commitment schemes and zero knowledge
proofs.
- Abstract(参考訳): 複数の当事者が所有するデータから学ぶことは、連合学習のように、参加者に提供されるプライバシー保証と悪意のある当事者の存在下での計算の正確性に関する課題を提起する。
このような課題を分散平均化(distributed averaging)という,連合学習アルゴリズムの基本構成要素で解決する。
最初のコントリビューションは、参加者がネットワークグラフのエッジに沿って関連するガウスノイズを交換するスケーラブルなプロトコルである。
我々は,我々のプロトコルの差分プライバシー保証と,悪意ある関係者の衝突によるグラフトポロジの影響を分析し,各正直な当事者がランダムに選択した他の参加者の対数的な数だけと通信しても,信頼できるキュレーターモデルの実用性にほぼ一致することを示した。
これは、ローカルなプライバシモデル(ユーティリティが低い)やセキュアアグリゲーション(すべてのユーザのペアがメッセージを交換する必要がある)のプロトコルとは対照的です。
第2のコントリビューションでは,プロトコルの効率性とプライバシ保証を損なうことなく,計算の正確性を証明することができる。
我々の検証プロトコルは、コミットメントスキームやゼロ知識証明のような標準的な暗号プリミティブに依存しています。
関連論文リスト
- Differential Privacy on Trust Graphs [54.55190841518906]
差分プライバシー(DP)は、各当事者がそのデータで他の当事者の(既知の)サブセットのみを信頼するマルチパーティ環境で研究する。
我々は、DPのローカルモデルよりもはるかに優れたプライバシーとユーティリティのトレードオフを持つ集約のためのDPアルゴリズムを提供する。
論文 参考訳(メタデータ) (2024-10-15T20:31:04Z) - Privacy Preserving Semi-Decentralized Mean Estimation over Intermittently-Connected Networks [59.43433767253956]
信頼できない無線ネットワークの異なるノードに分散するベクトルの平均をプライベートに推定する問題を考える。
半分散的なセットアップでは、ノードは隣人と協力してローカルコンセンサスを計算し、中央サーバにリレーする。
ノード間のデータ共有による協調中継とプライバシー漏洩のトレードオフについて検討する。
論文 参考訳(メタデータ) (2024-06-06T06:12:15Z) - Incentives in Private Collaborative Machine Learning [56.84263918489519]
コラボレーション型機械学習は、複数のパーティのデータに基づいてモデルをトレーニングする。
インセンティブとして差分プライバシー(DP)を導入する。
合成および実世界のデータセットに対するアプローチの有効性と実用性を実証的に実証した。
論文 参考訳(メタデータ) (2024-04-02T06:28:22Z) - TernaryVote: Differentially Private, Communication Efficient, and
Byzantine Resilient Distributed Optimization on Heterogeneous Data [50.797729676285876]
本稿では, 3次圧縮機と多数決機構を組み合わせて, 差分プライバシー, 勾配圧縮, ビザンチンレジリエンスを同時に実現するternaryVoteを提案する。
提案アルゴリズムのF差分プライバシー(DP)とビザンチンレジリエンスのレンズによるプライバシー保証を理論的に定量化する。
論文 参考訳(メタデータ) (2024-02-16T16:41:14Z) - Practical, Private Assurance of the Value of Collaboration via Fully Homomorphic Encryption [3.929854470352013]
2つのパーティーは、データセットで協力したいと思っています。
一方の当事者は、他方の当事者からのデータを取り入れることで、予測モデルの改善を約束する。
当事者は、更新されたモデルが正確性の向上を示した場合にのみ、さらなる協力を希望する。
論文 参考訳(メタデータ) (2023-10-04T03:47:21Z) - Trustless Privacy-Preserving Data Aggregation on Ethereum with Hypercube Network Topology [0.0]
ブロックチェーンの要約のためのスケーラブルなプライバシ保護データアグリゲーションプロトコルを提案している。
プロトコルは、契約の展開、ユーザ登録、プライベートな提出、証明検証の4段階で構成されている。
論文 参考訳(メタデータ) (2023-08-29T12:51:26Z) - Generalizing Differentially Private Decentralized Deep Learning with Multi-Agent Consensus [11.414398732656839]
本稿では,分散ディープラーニングに差分プライバシーを組み込んだフレームワークを提案する。
本稿では,このフレームワークから派生したアルゴリズムの収束保証を証明し,その実用性を示す。
論文 参考訳(メタデータ) (2023-06-24T07:46:00Z) - Is Vertical Logistic Regression Privacy-Preserving? A Comprehensive
Privacy Analysis and Beyond [57.10914865054868]
垂直ロジスティック回帰(VLR)をミニバッチ降下勾配で訓練した。
我々は、オープンソースのフェデレーション学習フレームワークのクラスにおいて、VLRの包括的で厳密なプライバシー分析を提供する。
論文 参考訳(メタデータ) (2022-07-19T05:47:30Z) - Byzantine-Robust Federated Learning with Optimal Statistical Rates and
Privacy Guarantees [123.0401978870009]
ほぼ最適な統計率を持つビザンチン・ロバスト・フェデレーション学習プロトコルを提案する。
競合プロトコルに対してベンチマークを行い、提案プロトコルの実証的な優位性を示す。
我々のバケットプロトコルは、プライバシー保証手順と自然に組み合わせて、半正直なサーバに対するセキュリティを導入することができる。
論文 参考訳(メタデータ) (2022-05-24T04:03:07Z) - PRICURE: Privacy-Preserving Collaborative Inference in a Multi-Party
Setting [3.822543555265593]
本稿では,セキュアなマルチパーティ計算とディファレンシャルプライバシの補完的強みを組み合わせたシステムpricureを提案する。
PRICUREは、複数のモデルオーナー間のプライバシー保護共同予測を可能にします。
ベンチマーク医療画像分類データセットを含む4つのデータセットのニューラルネットワーク上でPRICUREを評価する。
論文 参考訳(メタデータ) (2021-02-19T05:55:53Z) - Privacy-preserving Decentralized Aggregation for Federated Learning [3.9323226496740733]
フェデレーション学習は、複数のリージョンにまたがる分散データを学習するための有望なフレームワークである。
我々は,連合学習のためのプライバシ保存型分散集約プロトコルを開発した。
9 と 15 の分散サイトを持つベンチマークデータセットを用いて,画像分類と次単語予測のアルゴリズムの評価を行った。
論文 参考訳(メタデータ) (2020-12-13T23:45:42Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。