論文の概要: PGLP: Customizable and Rigorous Location Privacy through Policy Graph
- arxiv url: http://arxiv.org/abs/2005.01263v2
- Date: Wed, 15 Jul 2020 15:16:37 GMT
- ステータス: 処理完了
- システム内更新日: 2023-05-21 05:23:13.002924
- Title: PGLP: Customizable and Rigorous Location Privacy through Policy Graph
- Title(参考訳): PGLP:ポリシーグラフによるカスタマイズ可能で厳格な位置情報プライバシー
- Authors: Yang Cao, Yonghui Xiao, Shun Takagi, Li Xiong, Masatoshi Yoshikawa,
Yilin Shen, Jinfei Liu, Hongxia Jin, and Xiaofeng Xu
- Abstract要約: 我々はPGLPと呼ばれる新しい位置プライバシーの概念を提案し、カスタマイズ可能で厳格なプライバシー保証を備えたプライベートロケーションをリリースするためのリッチなインターフェースを提供する。
具体的には,ユーザの位置プライバシー要件を,表現的かつカスタマイズ可能なテキスト配置ポリシーグラフを用いて形式化する。
第3に、位置露光の検出、ポリシーグラフの修復、およびカスタマイズ可能な厳格な位置プライバシーを備えたプライベートな軌跡リリースをパイプライン化する、プライベートな位置トレースリリースフレームワークを設計する。
- 参考スコア(独自算出の注目度): 68.3736286350014
- License: http://creativecommons.org/publicdomain/zero/1.0/
- Abstract: Location privacy has been extensively studied in the literature. However,
existing location privacy models are either not rigorous or not customizable,
which limits the trade-off between privacy and utility in many real-world
applications. To address this issue, we propose a new location privacy notion
called PGLP, i.e., \textit{Policy Graph based Location Privacy}, providing a
rich interface to release private locations with customizable and rigorous
privacy guarantee. First, we design the privacy metrics of PGLP by extending
differential privacy. Specifically, we formalize a user's location privacy
requirements using a \textit{location policy graph}, which is expressive and
customizable. Second, we investigate how to satisfy an arbitrarily given
location policy graph under adversarial knowledge. We find that a location
policy graph may not always be viable and may suffer \textit{location exposure}
when the attacker knows the user's mobility pattern. We propose efficient
methods to detect location exposure and repair the policy graph with optimal
utility. Third, we design a private location trace release framework that
pipelines the detection of location exposure, policy graph repair, and private
trajectory release with customizable and rigorous location privacy. Finally, we
conduct experiments on real-world datasets to verify the effectiveness of the
privacy-utility trade-off and the efficiency of the proposed algorithms.
- Abstract(参考訳): 位置情報のプライバシーは文献で広く研究されている。
しかし、既存のロケーションプライバシモデルは厳密でないかカスタマイズできないかのどちらかであり、多くの現実世界アプリケーションにおけるプライバシとユーティリティのトレードオフを制限する。
この問題に対処するため,我々はpglpと呼ばれる新しいロケーションプライバシ概念,すなわち \textit{policy graph based location privacy}を提案し,カスタマイズ可能で厳格なプライバシ保証を備えたプライベートロケーションをリリースするためのリッチなインターフェースを提供する。
まず、差分プライバシーを拡張してPGLPのプライバシー指標を設計する。
具体的には,ユーザの位置情報のプライバシー要件を,表現的かつカスタマイズ可能な \textit{location policy graph} を用いて形式化する。
第2に,任意に与えられた位置情報ポリシーグラフを,敵意の知識の下でどのように満たすかを検討する。
位置情報ポリシーグラフは必ずしも有効ではなく,攻撃者がユーザのモビリティパターンを知っていれば,‘textit{location exposure}’を被る可能性がある。
そこで本研究では,効率的な位置露光検出手法を提案し,最適ユーティリティでポリシーグラフを修復する。
第3に,位置情報の露出検出,ポリシグラフの修正,プライベートトラックリリースのパイプラインとして,カスタマイズ可能な厳密なロケーションプライバシを備えたプライベートロケーショントレースリリースフレームワークを設計した。
最後に、実世界のデータセットを用いて、プライバシユーティリティトレードオフの有効性と提案アルゴリズムの有効性を検証する実験を行う。
関連論文リスト
- Masked Differential Privacy [64.32494202656801]
本稿では,差分プライバシーを適用した機密領域を制御できる「マスク型差分プライバシー(DP)」という効果的なアプローチを提案する。
提案手法はデータに基づいて選択的に動作し,DPアプリケーションや差分プライバシーをデータサンプル内の他のプライバシー技術と組み合わせることなく,非感性時間領域を定義できる。
論文 参考訳(メタデータ) (2024-10-22T15:22:53Z) - PrivacyLens: Evaluating Privacy Norm Awareness of Language Models in Action [54.11479432110771]
PrivacyLensは、プライバシに敏感な種子を表現的なヴィグネットに拡張し、さらにエージェントの軌跡に拡張するために設計された新しいフレームワークである。
プライバシの文献とクラウドソーシングされたシードに基づいて、プライバシの規範のコレクションをインスタンス化する。
GPT-4やLlama-3-70Bのような最先端のLMは、プライバシー強化の指示が出されたとしても、機密情報を25.68%、38.69%のケースでリークしている。
論文 参考訳(メタデータ) (2024-08-29T17:58:38Z) - Measuring Privacy Loss in Distributed Spatio-Temporal Data [26.891854386652266]
本稿では,情報提供者による位置復元攻撃に対する代替プライバシ損失を提案する。
実データと合成データに関する我々の実験は、分散環境での個人のプライバシー侵害に対する直感を反映していることを示している。
論文 参考訳(メタデータ) (2024-02-18T09:53:14Z) - Protecting Personalized Trajectory with Differential Privacy under Temporal Correlations [37.88484505367802]
本稿では,パーソナライズされたトラジェクトリプライバシ保護機構(PTPPM)を提案する。
ヒルベルト曲線に基づく最小距離探索アルゴリズムを用いて,各位置の保護位置集合(PLS)を同定する。
我々は位置摂動のための新しいPermute-and-Flip機構を提案し、データ公開プライバシー保護における初期応用を位置摂動機構にマッピングした。
論文 参考訳(メタデータ) (2024-01-20T12:59:08Z) - Privacy-Preserving Graph Embedding based on Local Differential Privacy [26.164722283887333]
ノードデータのプライバシを保護するために,PrivGEという新たなプライバシ保護グラフ埋め込みフレームワークを導入する。
具体的には,ノードデータを難読化するための LDP 機構を提案し,パーソナライズされた PageRank を近接指標としてノード表現を学習する。
いくつかの実世界のグラフデータセットの実験は、PrivGEがプライバシとユーティリティの最適なバランスを達成していることを示している。
論文 参考訳(メタデータ) (2023-10-17T08:06:08Z) - Echo of Neighbors: Privacy Amplification for Personalized Private
Federated Learning with Shuffle Model [21.077469463027306]
協調トレーニングの一般的なパラダイムであるフェデレートラーニングは、プライバシ攻撃に弱い。
この作業は、シャッフルモデルのプライバシー増幅効果を活用することで、パーソナライズされたローカルプライバシの下でのモデルプライバシを強化するために構築される。
私たちの知る限りでは、シャッフルがパーソナライズされたローカルプライバシに与える影響は、初めて考慮される。
論文 参考訳(メタデータ) (2023-04-11T21:48:42Z) - Smooth Anonymity for Sparse Graphs [69.1048938123063]
しかし、スパースデータセットを共有するという点では、差分プライバシーがプライバシのゴールドスタンダードとして浮上している。
本研究では、スムーズな$k$匿名性(スムーズな$k$匿名性)と、スムーズな$k$匿名性(スムーズな$k$匿名性)を提供する単純な大規模アルゴリズムを設計する。
論文 参考訳(メタデータ) (2022-07-13T17:09:25Z) - Privacy Amplification via Shuffling for Linear Contextual Bandits [51.94904361874446]
ディファレンシャルプライバシ(DP)を用いた文脈線形バンディット問題について検討する。
プライバシのシャッフルモデルを利用して,JDP と LDP のプライバシ/ユーティリティトレードオフを実現することができることを示す。
以上の結果から,ローカルプライバシを保ちながらシャッフルモデルを活用することで,JDPとDPのトレードオフを得ることが可能であることが示唆された。
論文 参考訳(メタデータ) (2021-12-11T15:23:28Z) - Location Trace Privacy Under Conditional Priors [22.970796265042246]
条件依存型データのプライバシー損失を予測する上で,R'enyi分散に基づくプライバシフレームワークを提案する。
このプライバシーを条件付きで達成するためのアルゴリズムを実証します。
論文 参考訳(メタデータ) (2021-02-23T21:55:34Z) - Private Reinforcement Learning with PAC and Regret Guarantees [69.4202374491817]
エピソード強化学習(RL)のためのプライバシー保護探索ポリシーを設計する。
まず、共同微分プライバシー(JDP)の概念を用いた有意義なプライバシー定式化を提供する。
そこで我々は,強いPACと後悔境界を同時に達成し,JDP保証を享受する,プライベートな楽観主義に基づく学習アルゴリズムを開発した。
論文 参考訳(メタデータ) (2020-09-18T20:18:35Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。