論文の概要: Differentially Private GANs for Generating Synthetic Indoor Location Data
- arxiv url: http://arxiv.org/abs/2404.07366v1
- Date: Wed, 10 Apr 2024 21:43:27 GMT
- ステータス: 処理完了
- システム内更新日: 2024-04-12 15:28:21.730977
- Title: Differentially Private GANs for Generating Synthetic Indoor Location Data
- Title(参考訳): 合成屋内位置情報作成のための個人別GAN
- Authors: Vahideh Moghtadaiee, Mina Alishahi, Milad Rabiei,
- Abstract要約: プライバシー保護のための屋内位置データを生成するために, DPGANを用いた屋内位置推定フレームワークを提案する。
実世界の屋内ローカライゼーションデータセットを用いて,本フレームワークの性能評価を行った。
- 参考スコア(独自算出の注目度): 0.09831489366502298
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The advent of location-based services has led to the widespread adoption of indoor localization systems, which enable location tracking of individuals within enclosed spaces such as buildings. While these systems provide numerous benefits such as improved security and personalized services, they also raise concerns regarding privacy violations. As such, there is a growing need for privacy-preserving solutions that can protect users' sensitive location information while still enabling the functionality of indoor localization systems. In recent years, Differentially Private Generative Adversarial Networks (DPGANs) have emerged as a powerful methodology that aims to protect the privacy of individual data points while generating realistic synthetic data similar to original data. DPGANs combine the power of generative adversarial networks (GANs) with the privacy-preserving technique of differential privacy (DP). In this paper, we introduce an indoor localization framework employing DPGANs in order to generate privacy-preserving indoor location data. We evaluate the performance of our framework on a real-world indoor localization dataset and demonstrate its effectiveness in preserving privacy while maintaining the accuracy of the localization system.
- Abstract(参考訳): 位置に基づくサービスの出現は、建物などの囲まれた空間内における個人の位置追跡を可能にする屋内ローカライゼーションシステムの普及につながった。
これらのシステムは、セキュリティやパーソナライズされたサービスの改善など、数多くのメリットを提供しているが、プライバシ違反に関する懸念も持ち上がっている。
そのため、屋内ローカライゼーションシステムの機能を引き続き有効にしつつ、ユーザのセンシティブな位置情報を保護できるプライバシー保護ソリューションの必要性が高まっている。
近年,DPGANは,個々のデータポイントのプライバシを保護し,元のデータに似たリアルな合成データを生成するための強力な手法として出現している。
DPGANは、GAN(Generative Adversarial Network)のパワーと、差分プライバシー(DP)のプライバシー保護技術を組み合わせたものである。
本稿では、プライバシー保護のための屋内位置情報データを生成するために、DPGANを用いた屋内ローカライゼーションフレームワークを提案する。
実世界の屋内ローカライゼーションデータセット上でのフレームワークの性能評価を行い,その精度を維持しつつ,プライバシ保護の有効性を実証した。
関連論文リスト
- FedVAE: Trajectory privacy preserving based on Federated Variational AutoEncoder [30.787270605742883]
位置情報ベースのサービス(LBS)は、位置情報に合わせてパーソナライズされたサービスを提供するために、軌跡データを活用する。
この課題に対処するため、データセット内の個人情報を保護するために、K匿名性や差分プライバシーといったプライバシ保護手法が提案されている。
本稿では,個人情報の機密性を保ち,元の特徴構造を保ちつつ,新たなトラジェクトリデータセットを効果的に生成するフェデレート変分オートエンコーダ(FedVAE)アプローチを提案する。
論文 参考訳(メタデータ) (2024-07-12T13:10:59Z) - Secure Aggregation is Not Private Against Membership Inference Attacks [66.59892736942953]
フェデレーション学習におけるSecAggのプライバシーへの影響について検討する。
SecAggは、単一のトレーニングラウンドであっても、メンバシップ推論攻撃に対して弱いプライバシを提供します。
以上の結果から,ノイズ注入などの付加的なプライバシー強化機構の必要性が浮き彫りになった。
論文 参考訳(メタデータ) (2024-03-26T15:07:58Z) - Measuring Privacy Loss in Distributed Spatio-Temporal Data [26.891854386652266]
本稿では,情報提供者による位置復元攻撃に対する代替プライバシ損失を提案する。
実データと合成データに関する我々の実験は、分散環境での個人のプライバシー侵害に対する直感を反映していることを示している。
論文 参考訳(メタデータ) (2024-02-18T09:53:14Z) - Protecting Personalized Trajectory with Differential Privacy under Temporal Correlations [37.88484505367802]
本稿では,パーソナライズされたトラジェクトリプライバシ保護機構(PTPPM)を提案する。
ヒルベルト曲線に基づく最小距離探索アルゴリズムを用いて,各位置の保護位置集合(PLS)を同定する。
我々は位置摂動のための新しいPermute-and-Flip機構を提案し、データ公開プライバシー保護における初期応用を位置摂動機構にマッピングした。
論文 参考訳(メタデータ) (2024-01-20T12:59:08Z) - Local Privacy-preserving Mechanisms and Applications in Machine Learning [0.21268495173320798]
ローカル微分プライバシ(LDP)は、データ収集と処理の段階において、個々のユーザに対して強力なプライバシ保護を提供する。
プライバシ保護メカニズムの主要な応用の1つは、機械学習である。
論文 参考訳(メタデータ) (2024-01-08T22:29:00Z) - A Unified View of Differentially Private Deep Generative Modeling [60.72161965018005]
プライバシー上の懸念のあるデータには、データアクセスとデータ共有を頻繁に禁止する厳格な規制が伴う。
これらの障害を克服することは、プライバシーに敏感なデータを含む多くの現実世界のアプリケーションシナリオにおいて、技術的進歩の鍵となる。
差分的プライベート(DP)データパブリッシングは、データの衛生化された形式のみを公開する、魅力的なソリューションを提供する。
論文 参考訳(メタデータ) (2023-09-27T14:38:16Z) - Echo of Neighbors: Privacy Amplification for Personalized Private
Federated Learning with Shuffle Model [21.077469463027306]
協調トレーニングの一般的なパラダイムであるフェデレートラーニングは、プライバシ攻撃に弱い。
この作業は、シャッフルモデルのプライバシー増幅効果を活用することで、パーソナライズされたローカルプライバシの下でのモデルプライバシを強化するために構築される。
私たちの知る限りでは、シャッフルがパーソナライズされたローカルプライバシに与える影響は、初めて考慮される。
論文 参考訳(メタデータ) (2023-04-11T21:48:42Z) - Personalization Improves Privacy-Accuracy Tradeoffs in Federated
Optimization [57.98426940386627]
局所的な学習とプライベートな集中学習の協調は、総合的に有用であり、精度とプライバシのトレードオフを改善していることを示す。
合成および実世界のデータセットに関する実験により理論的結果について述べる。
論文 参考訳(メタデータ) (2022-02-10T20:44:44Z) - Privacy Amplification via Shuffling for Linear Contextual Bandits [51.94904361874446]
ディファレンシャルプライバシ(DP)を用いた文脈線形バンディット問題について検討する。
プライバシのシャッフルモデルを利用して,JDP と LDP のプライバシ/ユーティリティトレードオフを実現することができることを示す。
以上の結果から,ローカルプライバシを保ちながらシャッフルモデルを活用することで,JDPとDPのトレードオフを得ることが可能であることが示唆された。
論文 参考訳(メタデータ) (2021-12-11T15:23:28Z) - Graph-Homomorphic Perturbations for Private Decentralized Learning [64.26238893241322]
ローカルな見積もりの交換は、プライベートデータに基づくデータの推測を可能にする。
すべてのエージェントで独立して選択された摂動により、パフォーマンスが著しく低下する。
本稿では,特定のヌル空間条件に従って摂動を構成する代替スキームを提案する。
論文 参考訳(メタデータ) (2020-10-23T10:35:35Z) - PGLP: Customizable and Rigorous Location Privacy through Policy Graph [68.3736286350014]
我々はPGLPと呼ばれる新しい位置プライバシーの概念を提案し、カスタマイズ可能で厳格なプライバシー保証を備えたプライベートロケーションをリリースするためのリッチなインターフェースを提供する。
具体的には,ユーザの位置プライバシー要件を,表現的かつカスタマイズ可能なテキスト配置ポリシーグラフを用いて形式化する。
第3に、位置露光の検出、ポリシーグラフの修復、およびカスタマイズ可能な厳格な位置プライバシーを備えたプライベートな軌跡リリースをパイプライン化する、プライベートな位置トレースリリースフレームワークを設計する。
論文 参考訳(メタデータ) (2020-05-04T04:25:59Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。