論文の概要: H-LPS: a hybrid approach for user's location privacy in location-based services
- arxiv url: http://arxiv.org/abs/2212.08241v2
- Date: Wed, 22 Jan 2025 02:34:20 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-01-23 13:27:51.453377
- Title: H-LPS: a hybrid approach for user's location privacy in location-based services
- Title(参考訳): H-LPS: 位置情報サービスにおけるユーザの位置情報プライバシのためのハイブリッドアプローチ
- Authors: Sonia Sabir, Inayat Ali, Eraj Khan,
- Abstract要約: 我々は,ユーザの位置情報を保護するために,難読化と協調に基づくハイブリッド位置情報プライバシスキーム(H-LPS)を提案している。
提案手法であるH-LPSは,高レベルのプライバシを提供するが,ほとんどのユーザに対して良好な精度を提供する。
- 参考スコア(独自算出の注目度): 0.0
- License:
- Abstract: Applications providing location-based services (LBS) have gained much attention and importance with the notion of the internet of things (IoT). Users are utilizing LBS by providing their location information to third-party service providers. However, location data is very sensitive that can reveal user's private life to adversaries. The passive and pervasive data collection in IoT upsurges serious issues of location privacy. Privacy-preserving location-based services are a hot research topic. Many anonymization and obfuscation techniques have been proposed to overcome location privacy issues. In this paper, we have proposed a hybrid location privacy scheme (H-LPS), a hybrid scheme mainly based on obfuscation and collaboration for protecting users' location privacy while using location-based services. Obfuscation naturally degrades the quality of service but provides more privacy as compared to anonymization. Our proposed scheme, H-LPS, provides a very high-level of privacy yet provides good accuracy for most of the users. The privacy level and service accuracy of H-LPS are compared with state-of-the-art location privacy schemes and it is shown that H-LPS could be a candidate solution for preserving user location privacy in location-based services.
- Abstract(参考訳): 位置ベースサービス(LBS)を提供するアプリケーションは、モノのインターネット(IoT)の概念によって、非常に注目され、重要になっている。
ユーザは、位置情報をサードパーティのサービスプロバイダに提供することで、LBSを活用している。
しかし、位置情報は非常に敏感であり、ユーザのプライベートライフを敵に明らかにすることができる。
IoTにおける受動的で広範にわたるデータ収集は、位置プライバシーの深刻な問題を提起している。
プライバシー保護の位置情報サービスは、ホットな研究トピックだ。
多くの匿名化と難読化技術が、位置プライバシーの問題を克服するために提案されている。
本稿では,ユーザの位置プライバシーを保護するために,主に難読化と協調に基づくハイブリッド型位置情報プライバシスキーム(H-LPS)を提案する。
難読化は自然にサービスの質を低下させるが、匿名化に比べてプライバシーが向上する。
提案手法であるH-LPSは,高レベルのプライバシを提供するが,ほとんどのユーザに対して良好な精度を提供する。
H-LPSのプライバシレベルとサービス精度を最先端の位置情報プライバシスキームと比較したところ,H-LPSは位置情報サービスにおけるユーザの位置情報プライバシを保存するための候補ソリューションである可能性が示唆された。
関連論文リスト
- Enhancing Feature-Specific Data Protection via Bayesian Coordinate Differential Privacy [55.357715095623554]
ローカル微分プライバシー(LDP)は、ユーザーが外部の関係者を信頼することなく、強力なプライバシー保証を提供する。
本稿では,ベイジアン・フレームワークであるベイジアン・コーディネート・ディファレンシャル・プライバシ(BCDP)を提案する。
論文 参考訳(メタデータ) (2024-10-24T03:39:55Z) - PrivacyLens: Evaluating Privacy Norm Awareness of Language Models in Action [54.11479432110771]
PrivacyLensは、プライバシに敏感な種子を表現的なヴィグネットに拡張し、さらにエージェントの軌跡に拡張するために設計された新しいフレームワークである。
プライバシの文献とクラウドソーシングされたシードに基づいて、プライバシの規範のコレクションをインスタンス化する。
GPT-4やLlama-3-70Bのような最先端のLMは、プライバシー強化の指示が出されたとしても、機密情報を25.68%、38.69%のケースでリークしている。
論文 参考訳(メタデータ) (2024-08-29T17:58:38Z) - Mind the Privacy Unit! User-Level Differential Privacy for Language Model Fine-Tuning [62.224804688233]
差分プライバシ(DP)は、モデルが特定のプライバシユニットで「ほとんど区別できない」ことを保証することで、有望なソリューションを提供する。
ユーザ間でのプライバシー保護の確保に必要なアプリケーションによって動機づけられたユーザレベルのDPについて検討する。
論文 参考訳(メタデータ) (2024-06-20T13:54:32Z) - Differentially Private GANs for Generating Synthetic Indoor Location Data [0.09831489366502298]
プライバシー保護のための屋内位置データを生成するために, DPGANを用いた屋内位置推定フレームワークを提案する。
実世界の屋内ローカライゼーションデータセットを用いて,本フレームワークの性能評価を行った。
論文 参考訳(メタデータ) (2024-04-10T21:43:27Z) - Protecting Personalized Trajectory with Differential Privacy under Temporal Correlations [37.88484505367802]
本稿では,パーソナライズされたトラジェクトリプライバシ保護機構(PTPPM)を提案する。
ヒルベルト曲線に基づく最小距離探索アルゴリズムを用いて,各位置の保護位置集合(PLS)を同定する。
我々は位置摂動のための新しいPermute-and-Flip機構を提案し、データ公開プライバシー保護における初期応用を位置摂動機構にマッピングした。
論文 参考訳(メタデータ) (2024-01-20T12:59:08Z) - Echo of Neighbors: Privacy Amplification for Personalized Private
Federated Learning with Shuffle Model [21.077469463027306]
協調トレーニングの一般的なパラダイムであるフェデレートラーニングは、プライバシ攻撃に弱い。
この作業は、シャッフルモデルのプライバシー増幅効果を活用することで、パーソナライズされたローカルプライバシの下でのモデルプライバシを強化するために構築される。
私たちの知る限りでは、シャッフルがパーソナライズされたローカルプライバシに与える影響は、初めて考慮される。
論文 参考訳(メタデータ) (2023-04-11T21:48:42Z) - Privacy Amplification via Shuffling for Linear Contextual Bandits [51.94904361874446]
ディファレンシャルプライバシ(DP)を用いた文脈線形バンディット問題について検討する。
プライバシのシャッフルモデルを利用して,JDP と LDP のプライバシ/ユーティリティトレードオフを実現することができることを示す。
以上の結果から,ローカルプライバシを保ちながらシャッフルモデルを活用することで,JDPとDPのトレードオフを得ることが可能であることが示唆された。
論文 参考訳(メタデータ) (2021-12-11T15:23:28Z) - Location Trace Privacy Under Conditional Priors [22.970796265042246]
条件依存型データのプライバシー損失を予測する上で,R'enyi分散に基づくプライバシフレームワークを提案する。
このプライバシーを条件付きで達成するためのアルゴリズムを実証します。
論文 参考訳(メタデータ) (2021-02-23T21:55:34Z) - Private Reinforcement Learning with PAC and Regret Guarantees [69.4202374491817]
エピソード強化学習(RL)のためのプライバシー保護探索ポリシーを設計する。
まず、共同微分プライバシー(JDP)の概念を用いた有意義なプライバシー定式化を提供する。
そこで我々は,強いPACと後悔境界を同時に達成し,JDP保証を享受する,プライベートな楽観主義に基づく学習アルゴリズムを開発した。
論文 参考訳(メタデータ) (2020-09-18T20:18:35Z) - PGLP: Customizable and Rigorous Location Privacy through Policy Graph [68.3736286350014]
我々はPGLPと呼ばれる新しい位置プライバシーの概念を提案し、カスタマイズ可能で厳格なプライバシー保証を備えたプライベートロケーションをリリースするためのリッチなインターフェースを提供する。
具体的には,ユーザの位置プライバシー要件を,表現的かつカスタマイズ可能なテキスト配置ポリシーグラフを用いて形式化する。
第3に、位置露光の検出、ポリシーグラフの修復、およびカスタマイズ可能な厳格な位置プライバシーを備えたプライベートな軌跡リリースをパイプライン化する、プライベートな位置トレースリリースフレームワークを設計する。
論文 参考訳(メタデータ) (2020-05-04T04:25:59Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。