論文の概要: SoK: Can Trajectory Generation Combine Privacy and Utility?
- arxiv url: http://arxiv.org/abs/2403.07218v1
- Date: Tue, 12 Mar 2024 00:25:14 GMT
- ステータス: 処理完了
- システム内更新日: 2024-03-13 23:24:43.306561
- Title: SoK: Can Trajectory Generation Combine Privacy and Utility?
- Title(参考訳): SoK: トラジェクトリ生成はプライバシとユーティリティを組み合わせられるか?
- Authors: Erik Buchholz and Alsharif Abuadbba and Shuo Wang and Surya Nepal and
Salil S. Kanhere
- Abstract要約: 本稿では,プライバシ保護トラジェクトリ・パブリッシング・アプローチを設計するためのフレームワークを提案する。
本稿では,提案フレームワークの文脈におけるトラジェクトリの最先端生成モデルの体系化に焦点をあてる。
- 参考スコア(独自算出の注目度): 28.845275761013138
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: While location trajectories represent a valuable data source for analyses and
location-based services, they can reveal sensitive information, such as
political and religious preferences. Differentially private publication
mechanisms have been proposed to allow for analyses under rigorous privacy
guarantees. However, the traditional protection schemes suffer from a limiting
privacy-utility trade-off and are vulnerable to correlation and reconstruction
attacks. Synthetic trajectory data generation and release represent a promising
alternative to protection algorithms. While initial proposals achieve
remarkable utility, they fail to provide rigorous privacy guarantees. This
paper proposes a framework for designing a privacy-preserving trajectory
publication approach by defining five design goals, particularly stressing the
importance of choosing an appropriate Unit of Privacy. Based on this framework,
we briefly discuss the existing trajectory protection approaches, emphasising
their shortcomings. This work focuses on the systematisation of the
state-of-the-art generative models for trajectories in the context of the
proposed framework. We find that no existing solution satisfies all
requirements. Thus, we perform an experimental study evaluating the
applicability of six sequential generative models to the trajectory domain.
Finally, we conclude that a generative trajectory model providing semantic
guarantees remains an open research question and propose concrete next steps
for future research.
- Abstract(参考訳): 位置トラジェクタは分析や位置情報ベースのサービスにとって貴重なデータソースであるが、政治的・宗教的好みなどの機密情報を明らかにすることができる。
厳密なプライバシー保証の下での分析を可能にするために、異なる私的な出版メカニズムが提案されている。
しかし、従来の保護策はプライバシーとユーティリティのトレードオフの制限に悩まされており、相関や再構築攻撃に弱い。
合成軌道データ生成とリリースは、保護アルゴリズムの有望な代替手段である。
最初の提案は目覚ましい実用性を達成するが、厳格なプライバシー保証の提供には失敗した。
本稿では,5つの設計目標を定義し,特に適切なプライバシ単位を選択することの重要性を強調し,プライバシ保護トラジェクトリパブリッシングアプローチを設計するための枠組みを提案する。
この枠組みに基づき、既存の軌道保護アプローチを簡潔に議論し、その欠点を強調した。
本研究は,提案フレームワークの文脈におけるトラジェクトリの最先端生成モデルの体系化に焦点をあてる。
既存のソリューションがすべての要件を満たすものはありません。
そこで,6つの連続生成モデルの軌道領域への適用性を評価する実験を行った。
最後に, セマンティクス保証を提供する生成軌道モデルは, オープン研究課題であり, 今後の研究に向けて具体的な次のステップを提案する。
関連論文リスト
- Model Inversion Attacks: A Survey of Approaches and Countermeasures [59.986922963781]
近年、新しいタイプのプライバシ攻撃であるモデル反転攻撃(MIA)は、トレーニングのためのプライベートデータの機密性を抽出することを目的としている。
この重要性にもかかわらず、総合的な概要とMIAに関する深い洞察を提供する体系的な研究が欠如している。
本調査は、攻撃と防御の両方において、最新のMIA手法を要約することを目的としている。
論文 参考訳(メタデータ) (2024-11-15T08:09:28Z) - Privacy-Preserving Dynamic Assortment Selection [4.399892832075127]
本稿では,マルチノミアルロジット(MNL)バンドレートモデルを用いて,プライバシ保護のための動的アソシエーション選択のための新しいフレームワークを提案する。
弊社のアプローチでは、ノイズをユーザユーティリティ推定に統合し、探索とエクスプロイトのバランスを保ちつつ、堅牢なプライバシー保護を確保している。
論文 参考訳(メタデータ) (2024-10-29T19:28:01Z) - ATTAXONOMY: Unpacking Differential Privacy Guarantees Against Practical Adversaries [11.550822252074733]
我々は攻撃の詳細な分類を提供し、攻撃のさまざまな側面を示し、多くの現実世界の設定が検討されていることを強調している。
イスラエル厚生労働省が最近発表した、差分プライバシーを用いた出生データセットの実際のケーススタディを分析して、分類学を運用しています。
論文 参考訳(メタデータ) (2024-05-02T20:23:23Z) - A Unified View of Differentially Private Deep Generative Modeling [60.72161965018005]
プライバシー上の懸念のあるデータには、データアクセスとデータ共有を頻繁に禁止する厳格な規制が伴う。
これらの障害を克服することは、プライバシーに敏感なデータを含む多くの現実世界のアプリケーションシナリオにおいて、技術的進歩の鍵となる。
差分的プライベート(DP)データパブリッシングは、データの衛生化された形式のみを公開する、魅力的なソリューションを提供する。
論文 参考訳(メタデータ) (2023-09-27T14:38:16Z) - SoK: Privacy-Preserving Data Synthesis [72.92263073534899]
本稿では,プライバシ保護データ合成(PPDS)に注目し,その分野の総合的な概要,分析,議論を行う。
PPDSでは,統計的手法と深層学習(DL)に基づく手法の2つの顕著な研究を統一するマスターレシピを作成した。
論文 参考訳(メタデータ) (2023-07-05T08:29:31Z) - Is Vertical Logistic Regression Privacy-Preserving? A Comprehensive
Privacy Analysis and Beyond [57.10914865054868]
垂直ロジスティック回帰(VLR)をミニバッチ降下勾配で訓練した。
我々は、オープンソースのフェデレーション学習フレームワークのクラスにおいて、VLRの包括的で厳密なプライバシー分析を提供する。
論文 参考訳(メタデータ) (2022-07-19T05:47:30Z) - Decentralized Stochastic Optimization with Inherent Privacy Protection [103.62463469366557]
分散最適化は、現代の協調機械学習、分散推定と制御、大規模センシングの基本的な構成要素である。
データが関与して以降、分散最適化アルゴリズムの実装において、プライバシ保護がますます重要になっている。
論文 参考訳(メタデータ) (2022-05-08T14:38:23Z) - PEARL: Data Synthesis via Private Embeddings and Adversarial
Reconstruction Learning [1.8692254863855962]
本稿では, 深層生成モデルを用いたデータ・フレームワークを, 差分的にプライベートな方法で提案する。
当社のフレームワークでは、センシティブなデータは、厳格なプライバシ保証をワンショットで行うことで衛生化されています。
提案手法は理論的に性能が保証され,複数のデータセットに対する経験的評価により,提案手法が適切なプライバシーレベルで他の手法よりも優れていることが示された。
論文 参考訳(メタデータ) (2021-06-08T18:00:01Z) - LSTM-TrajGAN: A Deep Learning Approach to Trajectory Privacy Protection [2.1793134762413437]
データ共有と公開のためのプライバシー保護型合成軌道データを生成するエンド・ツー・エンドのディープラーニングモデルを提案する。
本モデルは,実世界のセマンティック・トラジェクトリ・データセット上でのトラジェクトリ・ユーザ・リンクタスクに基づいて評価される。
論文 参考訳(メタデータ) (2020-06-14T03:04:19Z) - Privacy-preserving Traffic Flow Prediction: A Federated Learning
Approach [61.64006416975458]
本稿では,フェデレート学習に基づくGated Recurrent Unit Neural Network Algorithm (FedGRU) というプライバシ保護機械学習手法を提案する。
FedGRUは、現在の集中学習方法と異なり、安全なパラメータアグリゲーション機構を通じて、普遍的な学習モデルを更新する。
FedGRUの予測精度は、先進的なディープラーニングモデルよりも90.96%高い。
論文 参考訳(メタデータ) (2020-03-19T13:07:49Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。