論文の概要: Privacy-Aware Compression for Federated Data Analysis
- arxiv url: http://arxiv.org/abs/2203.08134v1
- Date: Tue, 15 Mar 2022 17:57:13 GMT
- ステータス: 処理完了
- システム内更新日: 2022-03-16 16:46:55.109808
- Title: Privacy-Aware Compression for Federated Data Analysis
- Title(参考訳): フェデレーションデータ解析のためのプライバシアウェア圧縮
- Authors: Kamalika Chaudhuri, Chuan Guo, Mike Rabbat
- Abstract要約: フェデレーションデータ分析(Federated Data Analytics)は、サーバが低帯域のユーザデバイス群からノイズの多い応答をコンパイルし、集計統計を推定する分散データ分析フレームワークである。
このフレームワークの2つの大きな課題は、ユーザデータがしばしばセンシティブであり、ユーザデバイスがネットワーク帯域幅が低いため、圧縮である。
我々は、この問題を概観し、特定の通信予算で機能するプライバシーに配慮した圧縮メカニズムのファミリーを設計する。
- 参考スコア(独自算出の注目度): 31.970815289473965
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Federated data analytics is a framework for distributed data analysis where a
server compiles noisy responses from a group of distributed low-bandwidth user
devices to estimate aggregate statistics. Two major challenges in this
framework are privacy, since user data is often sensitive, and compression,
since the user devices have low network bandwidth. Prior work has addressed
these challenges separately by combining standard compression algorithms with
known privacy mechanisms. In this work, we take a holistic look at the problem
and design a family of privacy-aware compression mechanisms that work for any
given communication budget. We first propose a mechanism for transmitting a
single real number that has optimal variance under certain conditions. We then
show how to extend it to metric differential privacy for location privacy
use-cases, as well as vectors, for application to federated learning. Our
experiments illustrate that our mechanism can lead to better utility vs.
compression trade-offs for the same privacy loss in a number of settings.
- Abstract(参考訳): フェデレーションデータ分析(federated data analytics)は、分散データ分析のためのフレームワークであり、サーバが分散低帯域ユーザデバイスのグループからノイズの多い応答をコンパイルして集計統計を推定する。
このフレームワークの2つの大きな課題は、ユーザデータがしばしばセンシティブであり、ユーザデバイスがネットワーク帯域幅が低いため、圧縮である。
先行研究は、標準圧縮アルゴリズムと既知のプライバシメカニズムを組み合わせることで、これらの課題を別々に解決した。
本研究では,この問題を概観し,特定の通信予算に対して機能するプライバシ対応圧縮機構のファミリーを設計する。
まず,特定の条件下で最適な分散を持つ1つの実数を伝達するメカニズムを提案する。
次に、アプリケーションをフェデレートされた学習のために、位置プライバシーのユースケースとベクターの差分プライバシーにどのように拡張するかを示す。
我々の実験は、多くの設定で同じプライバシー損失に対して、我々のメカニズムがより良いユーティリティ対圧縮トレードオフをもたらすことを実証している。
関連論文リスト
- Privacy Amplification for the Gaussian Mechanism via Bounded Support [64.86780616066575]
インスタンスごとの差分プライバシー(pDP)やフィッシャー情報損失(FIL)といったデータ依存のプライバシ会計フレームワークは、固定されたトレーニングデータセット内の個人に対してきめ細かいプライバシー保証を提供する。
本稿では,データ依存会計下でのプライバシ保証を向上することを示すとともに,バウンドサポートによるガウス機構の簡単な修正を提案する。
論文 参考訳(メタデータ) (2024-03-07T21:22:07Z) - Adaptive Privacy Composition for Accuracy-first Mechanisms [55.53725113597539]
ノイズ低減機構はますます正確な答えを生み出す。
アナリストは、公表された最も騒々しい、あるいは最も正確な回答のプライバシー費用のみを支払う。
ポスト前のプライベートメカニズムがどのように構成されるかは、まだ研究されていない。
我々は、分析者が微分プライベートとポストプライベートのメカニズムを適応的に切り替えることのできるプライバシーフィルタを開発した。
論文 参考訳(メタデータ) (2023-06-24T00:33:34Z) - Summary Statistic Privacy in Data Sharing [23.50797952699759]
本研究では,データ配信の要約統計を明らかにすることなく,データ保持者が受信者とデータを共有したい状況について検討する。
このようなメカニズムのプライバシーリスクを定量化するための指標である統計プライバシーの要約を提案する。
提案した量子化メカニズムは、代替プライバシメカニズムよりも優れたプライバシー歪曲トレードオフを実現する。
論文 参考訳(メタデータ) (2023-03-03T15:29:19Z) - Breaking the Communication-Privacy-Accuracy Tradeoff with
$f$-Differential Privacy [51.11280118806893]
サーバが複数のユーザの協調的なデータ分析を,プライバシの懸念と限られた通信能力で調整する,フェデレートされたデータ分析問題を考える。
有限出力空間を有する離散値機構の局所的差分プライバシー保証を$f$-differential privacy (DP) レンズを用いて検討する。
より具体的には、様々な離散的評価機構の厳密な$f$-DP保証を導出することにより、既存の文献を前進させる。
論文 参考訳(メタデータ) (2023-02-19T16:58:53Z) - On Differential Privacy for Federated Learning in Wireless Systems with
Multiple Base Stations [90.53293906751747]
複数の基地局とセル間干渉を持つ無線システムにおける連合学習モデルを考える。
本稿では,学習過程の収束挙動を,その最適性ギャップの上限を導出することによって示す。
提案するスケジューラは,ランダムなスケジューラと比較して予測平均精度を向上する。
論文 参考訳(メタデータ) (2022-08-25T03:37:11Z) - DP2-Pub: Differentially Private High-Dimensional Data Publication with
Invariant Post Randomization [58.155151571362914]
本稿では,2つのフェーズで動作する差分プライベートな高次元データパブリッシング機構(DP2-Pub)を提案する。
属性をクラスタ内凝集度の高い低次元クラスタに分割し、クラスタ間の結合度を低くすることで、適切なプライバシ予算を得ることができる。
また、DP2-Pubメカニズムを、ローカルの差分プライバシーを満たす半正直なサーバでシナリオに拡張します。
論文 参考訳(メタデータ) (2022-08-24T17:52:43Z) - Combining Public and Private Data [7.975795748574989]
分散を最小化するために最適化された平均の混合推定器を導入する。
ユーザのプライバシニーズに比例してデータをサブサンプリングすることで、個人のプライバシを保護する手法よりも、当社のメカニズムの方が望ましい、と我々は主張する。
論文 参考訳(メタデータ) (2021-10-29T23:25:49Z) - Robust and Differentially Private Mean Estimation [40.323756738056616]
異なるプライバシーは、米国国勢調査から商用デバイスで収集されたデータまで、さまざまなアプリケーションで標準要件として浮上しています。
このようなデータベースの数は、複数のソースからのデータからなり、それらすべてが信頼できるわけではない。
これにより、既存のプライベート分析は、腐敗したデータを注入する敵による攻撃に弱い。
論文 参考訳(メタデータ) (2021-02-18T05:02:49Z) - Differential Privacy of Hierarchical Census Data: An Optimization
Approach [53.29035917495491]
国勢調査局(Census Bureaus)は、個人に関する機密情報を明らかにすることなく、大人口に関する社会経済的データをまとめて公開することに興味を持っている。
最近の出来事では、これらの組織が直面しているプライバシー上の課題がいくつか特定されている。
本稿では,階層的な個人数を解放する新たな差分プライバシ機構を提案する。
論文 参考訳(メタデータ) (2020-06-28T18:19:55Z) - Bounding, Concentrating, and Truncating: Unifying Privacy Loss
Composition for Data Analytics [2.614355818010333]
アナリストが純粋なDP、境界範囲(指数的なメカニズムなど)、集中的なDPメカニズムを任意の順序で選択できる場合、強いプライバシー損失バウンダリを提供する。
また、アナリストが純粋なDPと境界範囲のメカニズムをバッチで選択できる場合に適用される最適なプライバシー損失境界を提供する。
論文 参考訳(メタデータ) (2020-04-15T17:33:10Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。