論文の概要: Releasing Large-Scale Human Mobility Histograms with Differential Privacy
- arxiv url: http://arxiv.org/abs/2407.03496v1
- Date: Wed, 3 Jul 2024 20:54:00 GMT
- ステータス: 処理完了
- システム内更新日: 2024-07-08 19:51:01.603110
- Title: Releasing Large-Scale Human Mobility Histograms with Differential Privacy
- Title(参考訳): 微分プライバシーを用いた大規模人体移動ヒストグラムのリリース
- Authors: Christopher Bian, Albert Cheu, Yannis Guzman, Marco Gruteser, Peter Kairouz, Ryan McKenna, Edo Roth,
- Abstract要約: 環境インサイト・エクスプローラー(EIE)は、世界中の約5万の地域をまたがる人々の交通手段を含む、人間の移動に関する統計を集計している。
これらの統計は二酸化炭素排出量を推定するために使われ、政策立案者に交通政策やインフラに関する判断を伝えるために提供される。
この作業では、フェデレートされた分析と差分プライバシーの組み合わせを使用して、これらの必要な統計情報を公開しつつ、厳しいエラー制約の下で運用し、下流の利害関係者に有効性を保証する。
- 参考スコア(独自算出の注目度): 18.136929266898214
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Environmental Insights Explorer (EIE) is a Google product that reports aggregate statistics about human mobility, including various methods of transit used by people across roughly 50,000 regions globally. These statistics are used to estimate carbon emissions and provided to policymakers to inform their decisions on transportation policy and infrastructure. Due to the inherent sensitivity of this type of user data, it is crucial that the statistics derived and released from it are computed with appropriate privacy protections. In this work, we use a combination of federated analytics and differential privacy to release these required statistics, while operating under strict error constraints to ensure utility for downstream stakeholders. In this work, we propose a new mechanism that achieves $ \epsilon \approx 2 $-DP while satisfying these strict utility constraints, greatly improving over natural baselines. We believe this mechanism may be of more general interest for the broad class of group-by-sum workloads.
- Abstract(参考訳): Environmental Insights Explorer(EIE)はGoogleのプロダクトで、人間の移動に関する統計データを報告している。
これらの統計は二酸化炭素排出量を推定するために使われ、政策立案者に交通政策やインフラに関する判断を伝えるために提供される。
この種のユーザデータの本質的な感度のため、そのデータから得られた統計データを適切なプライバシー保護によって計算することが重要である。
この作業では、フェデレートされた分析と差分プライバシーの組み合わせを使用して、これらの必要な統計情報を公開しつつ、厳しいエラー制約の下で運用し、下流の利害関係者に有効性を保証する。
本研究では,これらの厳密なユーティリティ制約を満たしつつ,$ \epsilon \approx 2 $-DP を達成する機構を提案する。
我々は、このメカニズムが、グループ・バイ・サムのワークロードの幅広いクラスにとってより一般的な関心事であると信じている。
関連論文リスト
- Bayes-Nash Generative Privacy Protection Against Membership Inference Attacks [24.330984323956173]
本稿では,データ共有機構出力のプライバシ保護のためのゲームモデルを提案する。
本稿では,ベイズ・ナッシュ生成プライバシ(BNGP)とベイズ生成プライバシ(BGP)のリスクについて紹介する。
本手法は要約統計の共有に応用され、MIAは集約データからでも個人を識別できる。
論文 参考訳(メタデータ) (2024-10-09T20:29:04Z) - Privacy Amplification for the Gaussian Mechanism via Bounded Support [64.86780616066575]
インスタンスごとの差分プライバシー(pDP)やフィッシャー情報損失(FIL)といったデータ依存のプライバシ会計フレームワークは、固定されたトレーニングデータセット内の個人に対してきめ細かいプライバシー保証を提供する。
本稿では,データ依存会計下でのプライバシ保証を向上することを示すとともに,バウンドサポートによるガウス機構の簡単な修正を提案する。
論文 参考訳(メタデータ) (2024-03-07T21:22:07Z) - Free Lunch for Federated Remote Sensing Target Fine-Grained
Classification: A Parameter-Efficient Framework [23.933367972846312]
本稿では、PRFLと呼ばれるフェデレートラーニングに基づく新しいプライバシー保護TFGCフレームワークを提案する。
4つの公開データセットを活用することにより,従来のTFGCタスクにおけるPRFLの有効性を示す。
論文 参考訳(メタデータ) (2024-01-03T01:45:00Z) - A Simple and Practical Method for Reducing the Disparate Impact of
Differential Privacy [21.098175634158043]
差分的プライベート(DP)メカニズムは、様々なインパクトの高い社会環境に展開されている。
DPの実用性への影響はサブ集団によって大きく異なる。
この格差を減らすための簡単な方法は、成層化である。
論文 参考訳(メタデータ) (2023-12-18T21:19:35Z) - Off-Policy Evaluation for Large Action Spaces via Policy Convolution [60.6953713877886]
ポリシ・コンボリューション(Policy Convolution)のファミリーは、アクション内の潜在構造を使用して、ログとターゲットポリシを戦略的に畳み込みます。
合成およびベンチマークデータセットの実験では、PCを使用する場合の平均二乗誤差(MSE)が顕著に改善されている。
論文 参考訳(メタデータ) (2023-10-24T01:00:01Z) - Safe Model-Based Multi-Agent Mean-Field Reinforcement Learning [48.667697255912614]
平均場強化学習は、同一エージェントの無限集団と相互作用する代表エージェントのポリシーに対処する。
モデルベースの平均場強化学習アルゴリズムであるSafe-M$3$-UCRLを提案する。
本アルゴリズムは,低需要領域におけるサービスアクセシビリティを確保しつつ,重要な領域における需要を効果的に満たす。
論文 参考訳(メタデータ) (2023-06-29T15:57:07Z) - Private and Collaborative Kaplan-Meier Estimators [44.61287171386347]
データの様々な機能に差分プライバシーを適用する際の柔軟性を提供する2つの新しい差分プライベート手法を導入する。
厳密なプライバシー保証を伴うKaplan-Meier曲線の同時推定を可能にする様々な経路を提案する。
論文 参考訳(メタデータ) (2023-05-24T17:11:48Z) - Mechanisms that Incentivize Data Sharing in Federated Learning [90.74337749137432]
我々は、データ共有の利点が完全に損なわれているような、ナイーブなスキームが破滅的なフリーライディングのレベルにどのように結びつくかを示す。
次に,各エージェントが生成するデータ量を最大化する精度形成機構を導入する。
論文 参考訳(メタデータ) (2022-07-10T22:36:52Z) - Information Design for Differential Privacy [0.0]
企業や統計機関は、データを収集、分析、公開する個人のプライバシーを守らなければならない。
エンドユーザーに対する出力値の最大化を目的として,そのようなメカニズムを選択することの問題点を考察する。
論文 参考訳(メタデータ) (2022-02-11T05:17:05Z) - SLOE: A Faster Method for Statistical Inference in High-Dimensional
Logistic Regression [68.66245730450915]
実用データセットに対する予測の偏見を回避し、頻繁な不確実性を推定する改善された手法を開発している。
私たちの主な貢献は、推定と推論の計算時間をマグニチュードの順序で短縮する収束保証付き信号強度の推定器SLOEです。
論文 参考訳(メタデータ) (2021-03-23T17:48:56Z) - Differential Privacy of Hierarchical Census Data: An Optimization
Approach [53.29035917495491]
国勢調査局(Census Bureaus)は、個人に関する機密情報を明らかにすることなく、大人口に関する社会経済的データをまとめて公開することに興味を持っている。
最近の出来事では、これらの組織が直面しているプライバシー上の課題がいくつか特定されている。
本稿では,階層的な個人数を解放する新たな差分プライバシ機構を提案する。
論文 参考訳(メタデータ) (2020-06-28T18:19:55Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。