論文の概要: PGLP: Customizable and Rigorous Location Privacy through Policy Graph
- arxiv url: http://arxiv.org/abs/2005.01263v2
- Date: Wed, 15 Jul 2020 15:16:37 GMT
- ステータス: 処理完了
- システム内更新日: 2023-05-21 05:23:13.002924
- Title: PGLP: Customizable and Rigorous Location Privacy through Policy Graph
- Title(参考訳): PGLP:ポリシーグラフによるカスタマイズ可能で厳格な位置情報プライバシー
- Authors: Yang Cao, Yonghui Xiao, Shun Takagi, Li Xiong, Masatoshi Yoshikawa,
Yilin Shen, Jinfei Liu, Hongxia Jin, and Xiaofeng Xu
- Abstract要約: 我々はPGLPと呼ばれる新しい位置プライバシーの概念を提案し、カスタマイズ可能で厳格なプライバシー保証を備えたプライベートロケーションをリリースするためのリッチなインターフェースを提供する。
具体的には,ユーザの位置プライバシー要件を,表現的かつカスタマイズ可能なテキスト配置ポリシーグラフを用いて形式化する。
第3に、位置露光の検出、ポリシーグラフの修復、およびカスタマイズ可能な厳格な位置プライバシーを備えたプライベートな軌跡リリースをパイプライン化する、プライベートな位置トレースリリースフレームワークを設計する。
- 参考スコア(独自算出の注目度): 68.3736286350014
- License: http://creativecommons.org/publicdomain/zero/1.0/
- Abstract: Location privacy has been extensively studied in the literature. However,
existing location privacy models are either not rigorous or not customizable,
which limits the trade-off between privacy and utility in many real-world
applications. To address this issue, we propose a new location privacy notion
called PGLP, i.e., \textit{Policy Graph based Location Privacy}, providing a
rich interface to release private locations with customizable and rigorous
privacy guarantee. First, we design the privacy metrics of PGLP by extending
differential privacy. Specifically, we formalize a user's location privacy
requirements using a \textit{location policy graph}, which is expressive and
customizable. Second, we investigate how to satisfy an arbitrarily given
location policy graph under adversarial knowledge. We find that a location
policy graph may not always be viable and may suffer \textit{location exposure}
when the attacker knows the user's mobility pattern. We propose efficient
methods to detect location exposure and repair the policy graph with optimal
utility. Third, we design a private location trace release framework that
pipelines the detection of location exposure, policy graph repair, and private
trajectory release with customizable and rigorous location privacy. Finally, we
conduct experiments on real-world datasets to verify the effectiveness of the
privacy-utility trade-off and the efficiency of the proposed algorithms.
- Abstract(参考訳): 位置情報のプライバシーは文献で広く研究されている。
しかし、既存のロケーションプライバシモデルは厳密でないかカスタマイズできないかのどちらかであり、多くの現実世界アプリケーションにおけるプライバシとユーティリティのトレードオフを制限する。
この問題に対処するため,我々はpglpと呼ばれる新しいロケーションプライバシ概念,すなわち \textit{policy graph based location privacy}を提案し,カスタマイズ可能で厳格なプライバシ保証を備えたプライベートロケーションをリリースするためのリッチなインターフェースを提供する。
まず、差分プライバシーを拡張してPGLPのプライバシー指標を設計する。
具体的には,ユーザの位置情報のプライバシー要件を,表現的かつカスタマイズ可能な \textit{location policy graph} を用いて形式化する。
第2に,任意に与えられた位置情報ポリシーグラフを,敵意の知識の下でどのように満たすかを検討する。
位置情報ポリシーグラフは必ずしも有効ではなく,攻撃者がユーザのモビリティパターンを知っていれば,‘textit{location exposure}’を被る可能性がある。
そこで本研究では,効率的な位置露光検出手法を提案し,最適ユーティリティでポリシーグラフを修復する。
第3に,位置情報の露出検出,ポリシグラフの修正,プライベートトラックリリースのパイプラインとして,カスタマイズ可能な厳密なロケーションプライバシを備えたプライベートロケーショントレースリリースフレームワークを設計した。
最後に、実世界のデータセットを用いて、プライバシユーティリティトレードオフの有効性と提案アルゴリズムの有効性を検証する実験を行う。
関連論文リスト
- Differentially Private Model-Based Offline Reinforcement Learning [51.1231068185106]
DP-MORLは差分プライバシーを保証するアルゴリズムである。
環境のプライベートモデルは、まずオフラインデータから学習される。
次に、モデルベースのポリシー最適化を使用して、プライベートモデルからポリシーを導出します。
論文 参考訳(メタデータ) (2024-02-08T10:05:11Z) - Privacy-Preserving Algorithmic Recourse [9.810419669376053]
PrivRecourseは、リコースパスのためのエンドツーエンドのプライバシ保護パイプラインです。
PrivRecourseは、プライベートデータセットの重複しないサブセットを表現するために、差分プライベート(DP)クラスタリングを使用する。
金融データセットに対する我々のアプローチを実証的に評価し、それを単にデータインスタンスにノイズを加えるのと比較します。
論文 参考訳(メタデータ) (2023-11-23T18:08:15Z) - Preserving Node-level Privacy in Graph Neural Networks [8.823710998526705]
グラフニューラルネットワーク(GNN)におけるノードレベルのプライバシの問題に対処するソリューションを提案する。
提案プロトコルは,1) 特定のノードサンプリング戦略と一連の調整操作を用いて所望の特性を持つサブグラフを生成するHeterPoissonと呼ばれるサンプリングルーチンと,2) 一般的に使用されるガウスノイズの代わりに対称ラプラスノイズを利用するランダム化ルーチンとからなる。
提案プロトコルは,実世界の5つのデータセットを用いた実験によって実証された,優れた性能でGNN学習を可能にする。
論文 参考訳(メタデータ) (2023-11-12T16:21:29Z) - Mean Estimation Under Heterogeneous Privacy: Some Privacy Can Be Free [13.198689566654103]
本研究は,異種差分プライバシー制約に基づく平均推定の問題について考察する。
提案するアルゴリズムは,プライバシレベルが異なる2つのユーザグループが存在する場合に,ミニマックス最適であることが示されている。
論文 参考訳(メタデータ) (2023-04-27T05:23:06Z) - Echo of Neighbors: Privacy Amplification for Personalized Private
Federated Learning with Shuffle Model [21.077469463027306]
協調トレーニングの一般的なパラダイムであるフェデレートラーニングは、プライバシ攻撃に弱い。
この作業は、シャッフルモデルのプライバシー増幅効果を活用することで、パーソナライズされたローカルプライバシの下でのモデルプライバシを強化するために構築される。
私たちの知る限りでは、シャッフルがパーソナライズされたローカルプライバシに与える影響は、初めて考慮される。
論文 参考訳(メタデータ) (2023-04-11T21:48:42Z) - Algorithms with More Granular Differential Privacy Guarantees [65.3684804101664]
我々は、属性ごとのプライバシー保証を定量化できる部分微分プライバシー(DP)について検討する。
本研究では,複数の基本データ分析および学習タスクについて検討し,属性ごとのプライバシパラメータが個人全体のプライバシーパラメータよりも小さい設計アルゴリズムについて検討する。
論文 参考訳(メタデータ) (2022-09-08T22:43:50Z) - Privacy Amplification via Shuffling for Linear Contextual Bandits [51.94904361874446]
ディファレンシャルプライバシ(DP)を用いた文脈線形バンディット問題について検討する。
プライバシのシャッフルモデルを利用して,JDP と LDP のプライバシ/ユーティリティトレードオフを実現することができることを示す。
以上の結果から,ローカルプライバシを保ちながらシャッフルモデルを活用することで,JDPとDPのトレードオフを得ることが可能であることが示唆された。
論文 参考訳(メタデータ) (2021-12-11T15:23:28Z) - Location Trace Privacy Under Conditional Priors [22.970796265042246]
条件依存型データのプライバシー損失を予測する上で,R'enyi分散に基づくプライバシフレームワークを提案する。
このプライバシーを条件付きで達成するためのアルゴリズムを実証します。
論文 参考訳(メタデータ) (2021-02-23T21:55:34Z) - Privacy-Constrained Policies via Mutual Information Regularized Policy
Gradients [93.65993173260318]
報酬を最大化するポリシーを訓練し、そのアクションを通じて特定の機密状態変数の開示を最小化するタスクを考える。
この設定は、シーケンシャルな意思決定のためのプライバシーにおける現実世界の問題をどのようにカバーするかを例に示します。
実験の結果,本手法は敏感な状態を隠蔽する方針が得られた。
論文 参考訳(メタデータ) (2020-12-30T03:22:35Z) - Private Reinforcement Learning with PAC and Regret Guarantees [69.4202374491817]
エピソード強化学習(RL)のためのプライバシー保護探索ポリシーを設計する。
まず、共同微分プライバシー(JDP)の概念を用いた有意義なプライバシー定式化を提供する。
そこで我々は,強いPACと後悔境界を同時に達成し,JDP保証を享受する,プライベートな楽観主義に基づく学習アルゴリズムを開発した。
論文 参考訳(メタデータ) (2020-09-18T20:18:35Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。