論文の概要: Demystifying Trajectory Recovery From Ash: An Open-Source Evaluation and Enhancement
- arxiv url: http://arxiv.org/abs/2409.14645v2
- Date: Tue, 1 Oct 2024 23:50:33 GMT
- ステータス: 処理完了
- システム内更新日: 2024-11-06 21:45:58.878935
- Title: Demystifying Trajectory Recovery From Ash: An Open-Source Evaluation and Enhancement
- Title(参考訳): Ashからの軌道復元のデミスティファイション:オープンソース評価と改善
- Authors: Nicholas D'Silva, Toran Shahi, Øyvind Timian Dokk Husveg, Adith Sanjeeve, Erik Buchholz, Salil S. Kanhere,
- Abstract要約: 本研究では, トラジェクショナルリカバリ攻撃をスクラッチから再実装し, 2つのオープンソースデータセット上で評価する。
結果は、一般的な匿名化やアグリゲーション手法にもかかわらず、プライバシリークがまだ存在することを確認した。
ベースライン攻撃に対する一連の強化を設計することで、より強力な攻撃を提案する。
- 参考スコア(独自算出の注目度): 5.409124675229009
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Once analysed, location trajectories can provide valuable insights beneficial to various applications. However, such data is also highly sensitive, rendering them susceptible to privacy risks in the event of mismanagement, for example, revealing an individual's identity, home address, or political affiliations. Hence, ensuring that privacy is preserved for this data is a priority. One commonly taken measure to mitigate this concern is aggregation. Previous work by Xu et al. shows that trajectories are still recoverable from anonymised and aggregated datasets. However, the study lacks implementation details, obfuscating the mechanisms of the attack. Additionally, the attack was evaluated on commercial non-public datasets, rendering the results and subsequent claims unverifiable. This study reimplements the trajectory recovery attack from scratch and evaluates it on two open-source datasets, detailing the preprocessing steps and implementation. Results confirm that privacy leakage still exists despite common anonymisation and aggregation methods but also indicate that the initial accuracy claims may have been overly ambitious. We release all code as open-source to ensure the results are entirely reproducible and, therefore, verifiable. Moreover, we propose a stronger attack by designing a series of enhancements to the baseline attack. These enhancements yield higher accuracies by up to 16%, providing an improved benchmark for future research in trajectory recovery methods. Our improvements also enable online execution of the attack, allowing partial attacks on larger datasets previously considered unprocessable, thereby furthering the extent of privacy leakage. The findings emphasise the importance of using strong privacy-preserving mechanisms when releasing aggregated mobility data and not solely relying on aggregation as a means of anonymisation.
- Abstract(参考訳): 一度分析すると、位置軌跡は様々なアプリケーションに有益な貴重な洞察を与えることができる。
しかし、そのようなデータは非常に敏感であり、例えば個人の身元、住所、政治的関係を明らかにするなど、不正管理の際のプライバシー上のリスクに影響を受けやすい。
したがって、このデータのためにプライバシが保存されることが最優先事項である。
この懸念を和らげるためによく取られる尺度は集合である。
Xuらによる以前の研究は、トラジェクトリが匿名化および集約されたデータセットからまだ回復可能であることを示している。
しかし、この研究は実装の詳細を欠き、攻撃のメカニズムを難読化している。
さらに、この攻撃は商用の非パブリックデータセットで評価され、結果とその後のクレームが検証不可能になった。
本研究では,トラジェクタリカバリ攻撃をスクラッチから再実装し,それを2つのオープンソースデータセット上で評価し,前処理ステップと実装について詳述する。
結果は、一般的な匿名化や集約手法にもかかわらず、プライバシリークがまだ存在することを確認するとともに、初期精度の主張が過度に野心的であったことも示している。
結果が完全に再現可能であることを保証するため、すべてのコードをオープンソースとしてリリースします。
さらに,ベースライン攻撃に対する一連の強化を設計することで,より強力な攻撃を提案する。
これらの拡張により、最大16%の精度が得られ、軌道回復法における将来の研究のための改良されたベンチマークを提供する。
我々の改善により、攻撃のオンライン実行も可能となり、以前は処理不能と考えられていた大規模なデータセットに対する部分的な攻撃が可能になった。
本研究は, 匿名化の手段として, 集約されたモビリティデータをのみ依存せず, 集約されたモビリティデータを公開する際に, 強力なプライバシ保存機構を使用することの重要性を強調した。
関連論文リスト
- Pseudo-Probability Unlearning: Towards Efficient and Privacy-Preserving Machine Unlearning [59.29849532966454]
本稿では,PseudoProbability Unlearning (PPU)を提案する。
提案手法は,最先端の手法に比べて20%以上の誤りを忘れる改善を実現している。
論文 参考訳(メタデータ) (2024-11-04T21:27:06Z) - Robust Utility-Preserving Text Anonymization Based on Large Language Models [80.5266278002083]
テキストの匿名化は、プライバシーを維持しながら機密データを共有するために重要である。
既存の技術は、大規模言語モデルの再識別攻撃能力の新たな課題に直面している。
本稿では,3つのLCMベースコンポーネント – プライバシ評価器,ユーティリティ評価器,最適化コンポーネント – で構成されるフレームワークを提案する。
論文 参考訳(メタデータ) (2024-07-16T14:28:56Z) - QBI: Quantile-Based Bias Initialization for Efficient Private Data Reconstruction in Federated Learning [0.5497663232622965]
フェデレーション学習は、ユーザのプライバシを損なうことなく、分散データ上で機械学習モデルのトレーニングを可能にする。
近年の研究では、中央のエンティティが共有モデル更新からプライベートデータを完全に再構築できることが示されている。
論文 参考訳(メタデータ) (2024-06-26T20:19:32Z) - RASE: Efficient Privacy-preserving Data Aggregation against Disclosure Attacks for IoTs [2.1765174838950494]
センサデバイスが生み出すデータを収集・保護する新たなパラダイムについて検討する。
データアグリゲーションとプライバシ保護の共同設計に関するこれまでの研究は、信頼されたフュージョンセンターがプライバシ体制に準拠していることを前提としている。
本稿では,3段階の逐次手順,雑音付加,ランダムな置換,パラメータ推定に一般化可能な新しいパラダイム(RASE)を提案する。
論文 参考訳(メタデータ) (2024-05-31T15:21:38Z) - Visual Privacy Auditing with Diffusion Models [52.866433097406656]
本稿では,拡散モデル(DM)に基づくリコンストラクション攻撃を提案する。
本研究では,(1)実世界のデータ漏洩が再建の成功に大きく影響すること,(2)現在のリビルド境界がデータ先行によるリスクをうまくモデル化していないこと,(3)DMは,プライバシー漏洩を可視化するための効果的な監査ツールとして機能すること,を示す。
論文 参考訳(メタデータ) (2024-03-12T12:18:55Z) - A Trajectory K-Anonymity Model Based on Point Density and Partition [0.0]
本稿では点密度と分割(K PDP)に基づく軌道K匿名性モデルを開発する。
再識別攻撃に抵抗し、k匿名データセットのデータユーティリティ損失を低減する。
論文 参考訳(メタデータ) (2023-07-31T17:10:56Z) - Re-thinking Data Availablity Attacks Against Deep Neural Networks [53.64624167867274]
本稿では、未学習例の概念を再検討し、既存のロバストな誤り最小化ノイズが不正確な最適化目標であることを示す。
本稿では,計算時間要件の低減による保護性能の向上を図った新しい最適化パラダイムを提案する。
論文 参考訳(メタデータ) (2023-05-18T04:03:51Z) - A Linear Reconstruction Approach for Attribute Inference Attacks against Synthetic Data [1.5293427903448022]
合成データに対する新しい属性推論攻撃を導入する。
攻撃は任意の記録でも極めて正確であることを示す。
次に、プライバシー保護と統計ユーティリティ保護のトレードオフを評価する。
論文 参考訳(メタデータ) (2023-01-24T14:56:36Z) - No Free Lunch in "Privacy for Free: How does Dataset Condensation Help
Privacy" [75.98836424725437]
データプライバシを保護するために設計された新しい手法は、慎重に精査する必要がある。
プライバシ保護の失敗は検出し難いが,プライバシ保護法を実装したシステムが攻撃された場合,破滅的な結果につながる可能性がある。
論文 参考訳(メタデータ) (2022-09-29T17:50:23Z) - Provably Efficient Causal Reinforcement Learning with Confounded
Observational Data [135.64775986546505]
オフラインで収集されたデータセット(観測データ)を組み込んで、オンライン環境でのサンプル効率を改善する方法について検討する。
提案手法は,観測データを効率よく組み込んだ,分解された楽観的値反復 (DOVI) アルゴリズムを提案する。
論文 参考訳(メタデータ) (2020-06-22T14:49:33Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。