論文の概要: Differential Secrecy for Distributed Data and Applications to Robust
Differentially Secure Vector Summation
- arxiv url: http://arxiv.org/abs/2202.10618v1
- Date: Tue, 22 Feb 2022 02:06:42 GMT
- ステータス: 処理完了
- システム内更新日: 2022-02-23 17:00:13.342133
- Title: Differential Secrecy for Distributed Data and Applications to Robust
Differentially Secure Vector Summation
- Title(参考訳): 分散データに対する差分秘密化と差分セキュアベクトル要約への応用
- Authors: Kunal Talwar
- Abstract要約: 本稿では,各コントリビューションのユークリッドノルムがほぼ有界であることを検証したベクトル和のプロトコルを提案する。
必然的に整数を大きな有限体の要素にキャストするSMCアルゴリズムとは異なり、我々のアルゴリズムは整数/実数上で動作し、それによってさらなる効率が期待できる。
- 参考スコア(独自算出の注目度): 32.004283989604154
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Computing the noisy sum of real-valued vectors is an important primitive in
differentially private learning and statistics. In private federated learning
applications, these vectors are held by client devices, leading to a
distributed summation problem. Standard Secure Multiparty Computation (SMC)
protocols for this problem are susceptible to poisoning attacks, where a client
may have a large influence on the sum, without being detected.
In this work, we propose a poisoning-robust private summation protocol in the
multiple-server setting, recently studied in PRIO. We present a protocol for
vector summation that verifies that the Euclidean norm of each contribution is
approximately bounded. We show that by relaxing the security constraint in SMC
to a differential privacy like guarantee, one can improve over PRIO in terms of
communication requirements as well as the client-side computation. Unlike SMC
algorithms that inevitably cast integers to elements of a large finite field,
our algorithms work over integers/reals, which may allow for additional
efficiencies.
- Abstract(参考訳): 実数値ベクトルの雑音和を計算することは、微分プライベートラーニングと統計学において重要な原始的である。
プライベートな連合学習アプリケーションでは、これらのベクトルはクライアントデバイスによって保持され、分散要約問題を引き起こす。
この問題に対する標準セキュアなマルチパーティ計算 (smc) プロトコルは、クライアントが検出されずに合計に大きな影響を与える可能性がある中毒攻撃の影響を受けやすい。
本研究では,最近PRIOで研究されているマルチサーバ環境における有害な個人和プロトコルを提案する。
各寄与のユークリッドノルムがほぼ有界であることを検証するベクトル和のプロトコルを提案する。
我々は,SMCのセキュリティ制約を保証のような差分プライバシーに緩和することにより,通信要求だけでなくクライアント側の計算もPRIOよりも改善できることを示す。
必然的に整数を大きな有限体の要素にキャストするSMCアルゴリズムとは異なり、我々のアルゴリズムは整数/実数上で動作し、さらなる効率性を実現する。
関連論文リスト
- Beyond Statistical Estimation: Differentially Private Individual Computation via Shuffling [21.031062710893867]
本稿では,PIC(Private Individual Computation)と呼ばれる新しいパラダイムを紹介する。
PICは、プライバシを保持しながらパーソナライズされたアウトプットを可能にし、シャッフルによってプライバシーを増幅する。
実用性を高めるためにPICモデルのために設計された最適確率化器Minkowski Responseを提案する。
論文 参考訳(メタデータ) (2024-06-26T07:53:48Z) - Provable Privacy with Non-Private Pre-Processing [56.770023668379615]
非プライベートなデータ依存前処理アルゴリズムによって生じる追加のプライバシーコストを評価するための一般的なフレームワークを提案する。
当社のフレームワークは,2つの新しい技術的概念を活用することにより,全体的なプライバシー保証の上限を確立する。
論文 参考訳(メタデータ) (2024-03-19T17:54:49Z) - PINE: Efficient Norm-Bound Verification for Secret-Shared Vectors [25.30406294459483]
PRIOのような2サーバシステムは、秘密共有ベクトルのスケーラブルな集約を可能にする。
有界ノルム寄与を保証するための既存のプロトコルは、大きな通信オーバーヘッドを発生させるか、ノルム境界の近似的な検証しかできない。
Inexpensive Norm Enforcement (PINE) は,通信オーバーヘッドが少なく,正確な標準検証が可能なプロトコルである。
論文 参考訳(メタデータ) (2023-11-16T23:54:21Z) - Samplable Anonymous Aggregation for Private Federated Data Analysis [25.35309084903802]
局所的に微分されたプライベートアルゴリズムは、ほとんど信頼を必要としないが、(おそらく)実用性に制限がある。
中央的に微分されたプライベートアルゴリズムは、はるかに優れたユーティリティを実現することができるが、信頼できるキュレーターを必要とする。
最初のコントリビューションは、複数のよく使われるアルゴリズムを効率的に実装できる新しいプリミティブを提案することです。
論文 参考訳(メタデータ) (2023-07-27T17:19:37Z) - Private Federated Frequency Estimation: Adapting to the Hardness of the
Instance [40.518740805553634]
フェデレート周波数推定(FFE)では、複数のクライアントが協力して、集合データの周波数を推定する。
より実用的なマルチラウンドFEE設定の下では、カウントスケッチの単純な適応は厳密に準最適であることを示す。
そこで本研究では,より高精度なハイブリッドスケッチアルゴリズムを提案する。
論文 参考訳(メタデータ) (2023-06-15T17:30:03Z) - When approximate design for fast homomorphic computation provides
differential privacy guarantees [0.08399688944263842]
差分プライバシー(DP)と暗号プリミティブは、プライバシー攻撃に対する一般的な対策である。
本稿では,argmax演算子に対する確率近似アルゴリズム ShiELD を設計する。
たとえShielDが他のアプリケーションを持つことができたとしても、私たちは1つの設定に集中し、SPEEDコラボレーティブトレーニングフレームワークにシームレスに統合します。
論文 参考訳(メタデータ) (2023-04-06T09:38:01Z) - ByzSecAgg: A Byzantine-Resistant Secure Aggregation Scheme for Federated
Learning Based on Coded Computing and Vector Commitment [90.60126724503662]
ByzSecAggは、フェデレートラーニングのための効率的なセキュアアグリゲーションスキームである。
ByzSecAggは、ビザンツの攻撃やプライバシーの漏洩から保護されている。
論文 参考訳(メタデータ) (2023-02-20T11:15:18Z) - On Differential Privacy for Federated Learning in Wireless Systems with
Multiple Base Stations [90.53293906751747]
複数の基地局とセル間干渉を持つ無線システムにおける連合学習モデルを考える。
本稿では,学習過程の収束挙動を,その最適性ギャップの上限を導出することによって示す。
提案するスケジューラは,ランダムなスケジューラと比較して予測平均精度を向上する。
論文 参考訳(メタデータ) (2022-08-25T03:37:11Z) - Is Vertical Logistic Regression Privacy-Preserving? A Comprehensive
Privacy Analysis and Beyond [57.10914865054868]
垂直ロジスティック回帰(VLR)をミニバッチ降下勾配で訓練した。
我々は、オープンソースのフェデレーション学習フレームワークのクラスにおいて、VLRの包括的で厳密なプライバシー分析を提供する。
論文 参考訳(メタデータ) (2022-07-19T05:47:30Z) - Learning, compression, and leakage: Minimising classification error via
meta-universal compression principles [87.054014983402]
学習シナリオのための圧縮技法の有望なグループは、正規化極大(NML)符号化である。
ここでは,教師付き分類問題に対するNMLに基づく意思決定戦略を検討し,多種多様なモデルに適用した場合にPAC学習を実現することを示す。
本手法の誤分類率は,プライバシに敏感なシナリオにおいて,データ漏洩の可能性を定量化するための指標である最大リークによって上限づけられていることを示す。
論文 参考訳(メタデータ) (2020-10-14T20:03:58Z) - Differentially Private Clustering: Tight Approximation Ratios [57.89473217052714]
基本的なクラスタリング問題に対して,効率的な微分プライベートアルゴリズムを提案する。
この結果から,SampleとAggregateのプライバシーフレームワークのアルゴリズムの改善が示唆された。
1-Clusterアルゴリズムで使用されるツールの1つは、ClosestPairのより高速な量子アルゴリズムを適度な次元で得るために利用できる。
論文 参考訳(メタデータ) (2020-08-18T16:22:06Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。