論文の概要: Differential Secrecy for Distributed Data and Applications to Robust
Differentially Secure Vector Summation
- arxiv url: http://arxiv.org/abs/2202.10618v1
- Date: Tue, 22 Feb 2022 02:06:42 GMT
- ステータス: 処理完了
- システム内更新日: 2022-02-23 17:00:13.342133
- Title: Differential Secrecy for Distributed Data and Applications to Robust
Differentially Secure Vector Summation
- Title(参考訳): 分散データに対する差分秘密化と差分セキュアベクトル要約への応用
- Authors: Kunal Talwar
- Abstract要約: 本稿では,各コントリビューションのユークリッドノルムがほぼ有界であることを検証したベクトル和のプロトコルを提案する。
必然的に整数を大きな有限体の要素にキャストするSMCアルゴリズムとは異なり、我々のアルゴリズムは整数/実数上で動作し、それによってさらなる効率が期待できる。
- 参考スコア(独自算出の注目度): 32.004283989604154
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Computing the noisy sum of real-valued vectors is an important primitive in
differentially private learning and statistics. In private federated learning
applications, these vectors are held by client devices, leading to a
distributed summation problem. Standard Secure Multiparty Computation (SMC)
protocols for this problem are susceptible to poisoning attacks, where a client
may have a large influence on the sum, without being detected.
In this work, we propose a poisoning-robust private summation protocol in the
multiple-server setting, recently studied in PRIO. We present a protocol for
vector summation that verifies that the Euclidean norm of each contribution is
approximately bounded. We show that by relaxing the security constraint in SMC
to a differential privacy like guarantee, one can improve over PRIO in terms of
communication requirements as well as the client-side computation. Unlike SMC
algorithms that inevitably cast integers to elements of a large finite field,
our algorithms work over integers/reals, which may allow for additional
efficiencies.
- Abstract(参考訳): 実数値ベクトルの雑音和を計算することは、微分プライベートラーニングと統計学において重要な原始的である。
プライベートな連合学習アプリケーションでは、これらのベクトルはクライアントデバイスによって保持され、分散要約問題を引き起こす。
この問題に対する標準セキュアなマルチパーティ計算 (smc) プロトコルは、クライアントが検出されずに合計に大きな影響を与える可能性がある中毒攻撃の影響を受けやすい。
本研究では,最近PRIOで研究されているマルチサーバ環境における有害な個人和プロトコルを提案する。
各寄与のユークリッドノルムがほぼ有界であることを検証するベクトル和のプロトコルを提案する。
我々は,SMCのセキュリティ制約を保証のような差分プライバシーに緩和することにより,通信要求だけでなくクライアント側の計算もPRIOよりも改善できることを示す。
必然的に整数を大きな有限体の要素にキャストするSMCアルゴリズムとは異なり、我々のアルゴリズムは整数/実数上で動作し、さらなる効率性を実現する。
関連論文リスト
- Private Federated Frequency Estimation: Adapting to the Hardness of the
Instance [40.518740805553634]
フェデレート周波数推定(FFE)では、複数のクライアントが協力して、集合データの周波数を推定する。
より実用的なマルチラウンドFEE設定の下では、カウントスケッチの単純な適応は厳密に準最適であることを示す。
そこで本研究では,より高精度なハイブリッドスケッチアルゴリズムを提案する。
論文 参考訳(メタデータ) (2023-06-15T17:30:03Z) - When approximate design for fast homomorphic computation provides
differential privacy guarantees [0.08399688944263842]
差分プライバシー(DP)と暗号プリミティブは、プライバシー攻撃に対する一般的な対策である。
本稿では,argmax演算子に対する確率近似アルゴリズム ShiELD を設計する。
たとえShielDが他のアプリケーションを持つことができたとしても、私たちは1つの設定に集中し、SPEEDコラボレーティブトレーニングフレームワークにシームレスに統合します。
論文 参考訳(メタデータ) (2023-04-06T09:38:01Z) - ByzSecAgg: A Byzantine-Resistant Secure Aggregation Scheme for Federated
Learning Based on Coded Computing and Vector Commitment [90.60126724503662]
ByzSecAggは、フェデレートラーニングのための効率的なセキュアアグリゲーションスキームである。
ByzSecAggは、ビザンツの攻撃やプライバシーの漏洩から保護されている。
論文 参考訳(メタデータ) (2023-02-20T11:15:18Z) - On Differential Privacy for Federated Learning in Wireless Systems with
Multiple Base Stations [90.53293906751747]
複数の基地局とセル間干渉を持つ無線システムにおける連合学習モデルを考える。
本稿では,学習過程の収束挙動を,その最適性ギャップの上限を導出することによって示す。
提案するスケジューラは,ランダムなスケジューラと比較して予測平均精度を向上する。
論文 参考訳(メタデータ) (2022-08-25T03:37:11Z) - Is Vertical Logistic Regression Privacy-Preserving? A Comprehensive
Privacy Analysis and Beyond [57.10914865054868]
垂直ロジスティック回帰(VLR)をミニバッチ降下勾配で訓練した。
我々は、オープンソースのフェデレーション学習フレームワークのクラスにおいて、VLRの包括的で厳密なプライバシー分析を提供する。
論文 参考訳(メタデータ) (2022-07-19T05:47:30Z) - Composably secure data processing for Gaussian-modulated continuous
variable quantum key distribution [58.720142291102135]
連続可変量子鍵分布(QKD)は、ボソニックモードの二次構造を用いて、2つのリモートパーティ間の秘密鍵を確立する。
構成可能な有限サイズセキュリティの一般的な設定におけるホモダイン検出プロトコルについて検討する。
特に、ハイレート(非バイナリ)の低密度パリティチェックコードを使用する必要のあるハイシグネチャ・ツー・ノイズ・システマを解析する。
論文 参考訳(メタデータ) (2021-03-30T18:02:55Z) - Learning, compression, and leakage: Minimising classification error via
meta-universal compression principles [87.054014983402]
学習シナリオのための圧縮技法の有望なグループは、正規化極大(NML)符号化である。
ここでは,教師付き分類問題に対するNMLに基づく意思決定戦略を検討し,多種多様なモデルに適用した場合にPAC学習を実現することを示す。
本手法の誤分類率は,プライバシに敏感なシナリオにおいて,データ漏洩の可能性を定量化するための指標である最大リークによって上限づけられていることを示す。
論文 参考訳(メタデータ) (2020-10-14T20:03:58Z) - Differentially Private Clustering: Tight Approximation Ratios [57.89473217052714]
基本的なクラスタリング問題に対して,効率的な微分プライベートアルゴリズムを提案する。
この結果から,SampleとAggregateのプライバシーフレームワークのアルゴリズムの改善が示唆された。
1-Clusterアルゴリズムで使用されるツールの1つは、ClosestPairのより高速な量子アルゴリズムを適度な次元で得るために利用できる。
論文 参考訳(メタデータ) (2020-08-18T16:22:06Z) - Secure Sum Outperforms Homomorphic Encryption in (Current) Collaborative
Deep Learning [7.690774882108066]
我々は、異なるデータ所有者のジョイントデータに基づいてニューラルネットワークをトレーニングする方法について議論し、各パーティの入力を秘密にしている。
より複雑で計算コストの低いセキュア和プロトコルは、共謀耐性と実行性の両方において優れた特性を示すことを示す。
論文 参考訳(メタデータ) (2020-06-02T23:03:32Z) - Secure Summation via Subset Sums: A New Primitive for Privacy-Preserving
Distributed Machine Learning [15.275126264550943]
サミネーションは計算手段、カウント、ミニバッチ勾配にとって重要なプリミティブである。
多くの場合、データはプライバシーに敏感であり、中央サーバーでは収集できない。
分散和と計算プライバシ保証の既存のソリューションは、現実の環境で満たされない信頼や接続の前提を定めている。
本稿では,悪意のあるサーバと2つの正直なクライアントの存在下で機能する分散和法であるSecure Summation via Subset Sums (S5)を提案する。
論文 参考訳(メタデータ) (2019-06-27T23:27:16Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。