論文の概要: A Trajectory K-Anonymity Model Based on Point Density and Partition
- arxiv url: http://arxiv.org/abs/2307.16849v1
- Date: Mon, 31 Jul 2023 17:10:56 GMT
- ステータス: 処理完了
- システム内更新日: 2023-08-01 13:22:18.849756
- Title: A Trajectory K-Anonymity Model Based on Point Density and Partition
- Title(参考訳): 点密度と分割に基づく軌道k匿名性モデル
- Authors: Wanshu Yu, Haonan Shi and Hongyun Xu
- Abstract要約: 本稿では点密度と分割(K PDP)に基づく軌道K匿名性モデルを開発する。
再識別攻撃に抵抗し、k匿名データセットのデータユーティリティ損失を低減する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: As people's daily life becomes increasingly inseparable from various mobile
electronic devices, relevant service application platforms and network
operators can collect numerous individual information easily. When releasing
these data for scientific research or commercial purposes, users' privacy will
be in danger, especially in the publication of spatiotemporal trajectory
datasets. Therefore, to avoid the leakage of users' privacy, it is necessary to
anonymize the data before they are released. However, more than simply removing
the unique identifiers of individuals is needed to protect the trajectory
privacy, because some attackers may infer the identity of users by the
connection with other databases. Much work has been devoted to merging multiple
trajectories to avoid re-identification, but these solutions always require
sacrificing data quality to achieve the anonymity requirement. In order to
provide sufficient privacy protection for users' trajectory datasets, this
paper develops a study on trajectory privacy against re-identification attacks,
proposing a trajectory K-anonymity model based on Point Density and Partition
(KPDP). Our approach improves the existing trajectory generalization
anonymization techniques regarding trajectory set partition preprocessing and
trajectory clustering algorithms. It successfully resists re-identification
attacks and reduces the data utility loss of the k-anonymized dataset. A series
of experiments on a real-world dataset show that the proposed model has
significant advantages in terms of higher data utility and shorter algorithm
execution time than other existing techniques.
- Abstract(参考訳): 人々の日常生活が様々な電子機器と切り離されるにつれて、関連するサービスアプリケーションプラットフォームやネットワークオペレーターは、容易に多数の個人情報を収集することができる。
これらのデータを科学研究や商業目的で公開する場合、特に時空間軌道データセットの公開において、ユーザのプライバシが危険にさらされる。
したがって、ユーザのプライバシーの漏洩を避けるためには、データを公開する前に匿名化する必要がある。
しかし、ある攻撃者は、他のデータベースとの接続によってユーザーのアイデンティティを推測する可能性があるため、軌跡のプライバシーを保護するために、個人のユニークな識別子を単に削除する以上のことが必要である。
再識別を避けるために複数のトラジェクトリのマージに多くの作業が費やされているが、匿名性要件を達成するためには常にデータ品質を犠牲にする必要がある。
利用者の軌跡データセットに対する十分なプライバシー保護を実現するため,KPDP(Point Density and Partition)に基づく軌道上のK匿名性モデルを提案し,再識別攻撃に対する軌道上のプライバシに関する研究を行った。
提案手法は,軌道集合分割前処理および軌道クラスタリングアルゴリズムに関する既存の軌道一般化匿名化技術を改善する。
再識別攻撃に抵抗し、k匿名データセットのデータユーティリティ損失を低減する。
実世界のデータセットに関する一連の実験は、提案モデルが既存の手法よりも高いデータユーティリティと短いアルゴリズム実行時間で大きな利点を持っていることを示している。
関連論文リスト
- Privacy-preserving datasets by capturing feature distributions with Conditional VAEs [0.11999555634662634]
条件付き変分オートエンコーダ(CVAE)は、大きな事前学習された視覚基盤モデルから抽出された特徴ベクトルに基づいて訓練される。
本手法は, 医用領域と自然画像領域の両方において, 従来のアプローチよりも優れている。
結果は、データスカースおよびプライバシに敏感な環境におけるディープラーニングアプリケーションに大きな影響を与える生成モデルの可能性を強調している。
論文 参考訳(メタデータ) (2024-08-01T15:26:24Z) - Robust Utility-Preserving Text Anonymization Based on Large Language Models [80.5266278002083]
テキストの匿名化は、プライバシーを維持しながら機密データを共有するために重要である。
既存の技術は、大規模言語モデルの再識別攻撃能力の新たな課題に直面している。
本稿では,3つのLCMベースコンポーネント – プライバシ評価器,ユーティリティ評価器,最適化コンポーネント – で構成されるフレームワークを提案する。
論文 参考訳(メタデータ) (2024-07-16T14:28:56Z) - PeFAD: A Parameter-Efficient Federated Framework for Time Series Anomaly Detection [51.20479454379662]
私たちはaを提案します。
フェデレートされた異常検出フレームワークであるPeFADは、プライバシーの懸念が高まっている。
我々は、4つの実際のデータセットに対して広範な評価を行い、PeFADは既存の最先端ベースラインを最大28.74%上回っている。
論文 参考訳(メタデータ) (2024-06-04T13:51:08Z) - A Unified View of Differentially Private Deep Generative Modeling [60.72161965018005]
プライバシー上の懸念のあるデータには、データアクセスとデータ共有を頻繁に禁止する厳格な規制が伴う。
これらの障害を克服することは、プライバシーに敏感なデータを含む多くの現実世界のアプリケーションシナリオにおいて、技術的進歩の鍵となる。
差分的プライベート(DP)データパブリッシングは、データの衛生化された形式のみを公開する、魅力的なソリューションを提供する。
論文 参考訳(メタデータ) (2023-09-27T14:38:16Z) - Private Set Generation with Discriminative Information [63.851085173614]
異なるプライベートなデータ生成は、データプライバシの課題に対する有望な解決策である。
既存のプライベートな生成モデルは、合成サンプルの有用性に苦慮している。
我々は,最先端アプローチのサンプルユーティリティを大幅に改善する,シンプルで効果的な手法を提案する。
論文 参考訳(メタデータ) (2022-11-07T10:02:55Z) - Linear Model with Local Differential Privacy [0.225596179391365]
プライバシ保護技術は、さまざまな機関間で分散データを解析するために広く研究されている。
セキュアなマルチパーティ計算は、プライバシ保護のために、高いプライバシレベルで、高コストで広く研究されている。
マトリクスマスキング技術は、悪意のある敵に対するセキュアなスキームを暗号化するために用いられる。
論文 参考訳(メタデータ) (2022-02-05T01:18:00Z) - Joint Optimization in Edge-Cloud Continuum for Federated Unsupervised
Person Re-identification [24.305773593017932]
FedUReIDは、個人のReIDモデルをラベルなしで学習し、プライバシを保護するための、フェデレートされた教師なしのReIDシステムである。
エッジがデータ量や分布によって異なる問題に対処するために,クラウドとエッジの共同最適化によるエッジでのトレーニングを個人化する。
8人のReIDデータセットの実験では、FedUReIDは高い精度を達成するが、計算コストを29%削減することを示した。
論文 参考訳(メタデータ) (2021-08-14T08:35:55Z) - Deep Directed Information-Based Learning for Privacy-Preserving Smart
Meter Data Release [30.409342804445306]
本稿では,時系列データとスマートメータ(SM)電力消費測定の文脈における問題点について検討する。
我々は、考慮された設定において、より意味のあるプライバシーの尺度として、指向情報(DI)を導入します。
最悪のシナリオにおけるSMs測定による実世界のデータセットに関する実証的研究は、プライバシとユーティリティの既存のトレードオフを示している。
論文 参考訳(メタデータ) (2020-11-20T13:41:11Z) - Graph-Homomorphic Perturbations for Private Decentralized Learning [64.26238893241322]
ローカルな見積もりの交換は、プライベートデータに基づくデータの推測を可能にする。
すべてのエージェントで独立して選択された摂動により、パフォーマンスが著しく低下する。
本稿では,特定のヌル空間条件に従って摂動を構成する代替スキームを提案する。
論文 参考訳(メタデータ) (2020-10-23T10:35:35Z) - Knowledge-Enriched Distributional Model Inversion Attacks [49.43828150561947]
モデルインバージョン(MI)攻撃は、モデルパラメータからトレーニングデータを再構成することを目的としている。
本稿では,パブリックデータからプライベートモデルに対する攻撃を行うのに役立つ知識を抽出する,新しい反転型GANを提案する。
実験の結果,これらの手法を組み合わせることで,最先端MI攻撃の成功率を150%向上させることができることがわかった。
論文 参考訳(メタデータ) (2020-10-08T16:20:48Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。