論文の概要: Towards Sparse Federated Analytics: Location Heatmaps under Distributed
Differential Privacy with Secure Aggregation
- arxiv url: http://arxiv.org/abs/2111.02356v1
- Date: Wed, 3 Nov 2021 17:19:05 GMT
- ステータス: 処理完了
- システム内更新日: 2021-11-04 14:15:57.516963
- Title: Towards Sparse Federated Analytics: Location Heatmaps under Distributed
Differential Privacy with Secure Aggregation
- Title(参考訳): スパース・フェデレーション・アナリティクスに向けて:セキュアアグリゲーションによる分散差分プライバシー下の位置ヒートマップ
- Authors: Eugene Bagdasaryan, Peter Kairouz, Stefan Mellem, Adri\`a Gasc\'on,
Kallista Bonawitz, Deborah Estrin and Marco Gruteser
- Abstract要約: 我々は、数百万のユーザデバイスから分散化されたデータにまたがって、位置情報のヒートマップをプライベートに生成するスケーラブルなアルゴリズムを設計する。
データの正確性を維持しつつ、ユーザのデバイス上でのリソース消費を最小限に抑えながら、データがサービスプロバイダに表示される前に、差分プライバシを確保することを目的としている。
- 参考スコア(独自算出の注目度): 15.569382274788234
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We design a scalable algorithm to privately generate location heatmaps over
decentralized data from millions of user devices. It aims to ensure
differential privacy before data becomes visible to a service provider while
maintaining high data accuracy and minimizing resource consumption on users'
devices. To achieve this, we revisit the distributed differential privacy
concept based on recent results in the secure multiparty computation field and
design a scalable and adaptive distributed differential privacy approach for
location analytics. Evaluation on public location datasets shows that this
approach successfully generates metropolitan-scale heatmaps from millions of
user samples with a worst-case client communication overhead that is
significantly smaller than existing state-of-the-art private protocols of
similar accuracy.
- Abstract(参考訳): 何百万ものユーザデバイスから分散データに対して,位置情報ヒートマップをプライベートに生成するためのスケーラブルなアルゴリズムを設計した。
データの精度が高く、ユーザのデバイス上のリソース消費を最小限に抑えながら、データがサービスプロバイダに見えるようになる前に、ディファレンシャルプライバシを確保することを目的としている。
そこで我々は,セキュアなマルチパーティ計算分野における最近の結果に基づいて分散微分プライバシーの概念を再検討し,位置分析のためのスケーラブルで適応的な分散微分プライバシーアプローチを設計する。
パブリックロケーションデータセットの評価から、このアプローチは数百万のユーザサンプルから、最先端のクライアント通信オーバーヘッドを持つ大都市圏のヒートマップを生成することに成功した。
関連論文リスト
- Data Analytics with Differential Privacy [0.0]
我々は分散データとストリーミングデータを解析するための差分プライベートアルゴリズムを開発した。
分散モデルでは、学習の特定の問題 -- 分散形式で -- がデータのグローバルモデルであると考えている。
私たちは、ストリーミングモデル、ユーザーレベルのパンプライバシに対して、最も強力なプライバシー保証の1つを提供しています。
論文 参考訳(メタデータ) (2023-07-20T17:43:29Z) - FedLAP-DP: Federated Learning by Sharing Differentially Private Loss
Approximations [58.192338472631405]
FedLAP-DPは、フェデレーション学習のための新しいプライバシー保護アプローチである。
我々の定式化は、クライアントから受信した合成サンプルを活用することで、グローバルな最適化を可能にします。
プライバシーの懸念が高まりつつある中で、私たちのアプローチがレコードレベルの差分プライバシーとシームレスに機能することを実証しています。
論文 参考訳(メタデータ) (2023-02-02T12:56:46Z) - Differentially Private Heatmaps [41.787298418108534]
ユーザのプライバシーを保護しながら,ユーザの集約データからヒートマップを生成するタスクについて検討する。
このタスクに対して差分プライベート(DP)アルゴリズムを提案し、実世界のデータセット上で従来のアルゴリズムよりも優位性を示す。
論文 参考訳(メタデータ) (2022-11-24T07:47:34Z) - Private Set Generation with Discriminative Information [63.851085173614]
異なるプライベートなデータ生成は、データプライバシの課題に対する有望な解決策である。
既存のプライベートな生成モデルは、合成サンプルの有用性に苦慮している。
我々は,最先端アプローチのサンプルユーティリティを大幅に改善する,シンプルで効果的な手法を提案する。
論文 参考訳(メタデータ) (2022-11-07T10:02:55Z) - DP2-Pub: Differentially Private High-Dimensional Data Publication with
Invariant Post Randomization [58.155151571362914]
本稿では,2つのフェーズで動作する差分プライベートな高次元データパブリッシング機構(DP2-Pub)を提案する。
属性をクラスタ内凝集度の高い低次元クラスタに分割し、クラスタ間の結合度を低くすることで、適切なプライバシ予算を得ることができる。
また、DP2-Pubメカニズムを、ローカルの差分プライバシーを満たす半正直なサーバでシナリオに拡張します。
論文 参考訳(メタデータ) (2022-08-24T17:52:43Z) - Decentralized Stochastic Optimization with Inherent Privacy Protection [103.62463469366557]
分散最適化は、現代の協調機械学習、分散推定と制御、大規模センシングの基本的な構成要素である。
データが関与して以降、分散最適化アルゴリズムの実装において、プライバシ保護がますます重要になっている。
論文 参考訳(メタデータ) (2022-05-08T14:38:23Z) - Mixed Differential Privacy in Computer Vision [133.68363478737058]
AdaMixは、プライベートとパブリックの両方の画像データを使用して、ディープニューラルネットワーク分類器をトレーニングするための適応型微分プライベートアルゴリズムである。
プライベートデータを無視する数ショットあるいはゼロショットの学習ベースラインは、大規模なプライベートデータセットの微調整よりも優れています。
論文 参考訳(メタデータ) (2022-03-22T06:15:43Z) - Optimal and Differentially Private Data Acquisition: Central and Local
Mechanisms [9.599356978682108]
プライバシに敏感なユーザからデータを収集するプラットフォームの問題を考え,その基盤となる関心パラメータを推定する。
ユーザに対して、プライバシ保証を提供するための2つの一般的な差分プライバシ設定について検討する。
このメカニズム設計問題は,ユーザのプライバシ感を真に報告するための推定器と支払器の最適選択として機能する。
論文 参考訳(メタデータ) (2022-01-10T00:27:43Z) - Graph-Homomorphic Perturbations for Private Decentralized Learning [64.26238893241322]
ローカルな見積もりの交換は、プライベートデータに基づくデータの推測を可能にする。
すべてのエージェントで独立して選択された摂動により、パフォーマンスが著しく低下する。
本稿では,特定のヌル空間条件に従って摂動を構成する代替スキームを提案する。
論文 参考訳(メタデータ) (2020-10-23T10:35:35Z) - Deconvoluting Kernel Density Estimation and Regression for Locally
Differentially Private Data [14.095523601311374]
ローカルな差分プライバシーは、機密性の高い個々のデータポイントを収集または公開するためのプライバシー文学のゴールドスタンダードとなっている。
しかし、局所的な差分データは、プライバシーを確保するために使われる付加ノイズのため、データの確率密度をゆがめることがある。
本研究では,スムースなカーネルを用いた密度推定手法を開発し,プライバシ保護ノイズの影響を除去する。
論文 参考訳(メタデータ) (2020-08-28T03:39:17Z) - Privacy Amplification via Random Check-Ins [38.72327434015975]
Differentially Private Gradient Descent (DP-SGD) は、多くのアプリケーションにおいて、機密データを学習するための基本的な構成要素となっている。
本稿では,DP-SGD のような反復的手法を,多くのデバイス(クライアント)に分散したフェデレーションラーニング(FL)の設定において実施することに焦点を当てる。
当社の主なコントリビューションは,各クライアントがローカルかつ独立に行うランダムな参加決定にのみ依存する,Emphrandom Check-in分散プロトコルです。
論文 参考訳(メタデータ) (2020-07-13T18:14:09Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。