論文の概要: Guided Diffusion Model for Sensor Data Obfuscation
- arxiv url: http://arxiv.org/abs/2412.14499v1
- Date: Thu, 19 Dec 2024 03:47:12 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-12-20 13:31:52.001103
- Title: Guided Diffusion Model for Sensor Data Obfuscation
- Title(参考訳): センサデータ難読化のための誘導拡散モデル
- Authors: Xin Yang, Omid Ardakanian,
- Abstract要約: PrivDiffuserは、デノナイジング拡散モデルに基づく新しいデータ難読化手法である。
PrivDiffuserは、最先端の難読化モデルよりも優れたプライバシーとユーティリティのトレードオフをもたらすことを示す。
- 参考スコア(独自算出の注目度): 4.91258288207688
- License:
- Abstract: Sensor data collected by Internet of Things (IoT) devices carries detailed information about individuals in their vicinity. Sharing this data with a semi-trusted service provider may compromise the individuals' privacy, as sensitive information can be extracted by powerful machine learning models. Data obfuscation empowered by generative models is a promising approach to generate synthetic sensor data such that the useful information contained in the original data is preserved and the sensitive information is obscured. This newly generated data will then be shared with the service provider instead of the original sensor data. In this work, we propose PrivDiffuser, a novel data obfuscation technique based on a denoising diffusion model that attains a superior trade-off between data utility and privacy through effective guidance techniques. Specifically, we extract latent representations that contain information about public and private attributes from sensor data to guide the diffusion model, and impose mutual information-based regularization when learning the latent representations to alleviate the entanglement of public and private attributes, thereby increasing the effectiveness of guidance. Evaluation on three real-world datasets containing different sensing modalities reveals that PrivDiffuser yields a better privacy-utility trade-off than the state-of-the-art obfuscation model, decreasing the utility loss by up to $1.81\%$ and the privacy loss by up to $3.42\%$. Moreover, we showed that users with diverse privacy needs can use PrivDiffuser to protect their privacy without having to retrain the model.
- Abstract(参考訳): IoT(Internet of Things)デバイスによって収集されたセンサデータは、その近傍の個人に関する詳細な情報を運ぶ。
このデータを半信頼のサービスプロバイダと共有することは、強力な機械学習モデルによって機密情報を抽出できるため、個人のプライバシを損なう可能性がある。
生成モデルによって強化されたデータ難読化は、原データに含まれる有用な情報が保存され、機密情報が隠蔽されるような合成センサデータを生成するための有望なアプローチである。
この新たに生成されたデータは、元のセンサデータではなく、サービスプロバイダと共有される。
そこで本研究では,データユーティリティとプライバシのトレードオフを効果的に導出することで,より優れたデノベーション拡散モデルに基づく新しいデータ難読化手法であるPrivDiffuserを提案する。
具体的には、センサデータからパブリック属性とプライベート属性に関する情報を含む潜時表現を抽出し、拡散モデルを導出し、潜時表現を学習する際に相互情報に基づく正規化を課し、パブリック属性とプライベート属性の絡み合いを緩和し、ガイダンスの有効性を高める。
異なるセンシングモダリティを含む3つの実世界のデータセットの評価によると、PrivDiffuserは最先端の難読化モデルよりも優れたプライバシユーティリティトレードオフをもたらし、ユーティリティ損失を最大1.81 %、プライバシ損失を最大3.42 %まで下げている。
さらに,プライバシのニーズが多様であるユーザは,モデルの再トレーニングを必要とせず,プライバシを保護するためにPrivDiffuserを使用することができた。
関連論文リスト
- FT-PrivacyScore: Personalized Privacy Scoring Service for Machine Learning Participation [4.772368796656325]
実際には、制御されたデータアクセスは、多くの産業や研究環境でデータプライバシを保護する主要な方法である。
我々は,FT-PrivacyScoreのプロトタイプを開発し,モデル微調整作業に参加する際のプライバシーリスクを効率よく定量的に推定できることを実証した。
論文 参考訳(メタデータ) (2024-10-30T02:41:26Z) - Activity Recognition on Avatar-Anonymized Datasets with Masked Differential Privacy [64.32494202656801]
プライバシを保存するコンピュータビジョンは、機械学習と人工知能において重要な問題である。
本稿では,ビデオデータセット中の感性のある被験者を文脈内の合成アバターに置き換える匿名化パイプラインを提案する。
また、匿名化されていないがプライバシーに敏感な背景情報を保護するため、MaskDPを提案する。
論文 参考訳(メタデータ) (2024-10-22T15:22:53Z) - $\alpha$-Mutual Information: A Tunable Privacy Measure for Privacy
Protection in Data Sharing [4.475091558538915]
本稿では, 有基の$alpha$-Mutual Informationを調整可能なプライバシ尺度として採用する。
我々は、プライバシ保護を提供するためにオリジナルのデータを操作するための一般的な歪みに基づくメカニズムを定式化する。
論文 参考訳(メタデータ) (2023-10-27T16:26:14Z) - A Unified View of Differentially Private Deep Generative Modeling [60.72161965018005]
プライバシー上の懸念のあるデータには、データアクセスとデータ共有を頻繁に禁止する厳格な規制が伴う。
これらの障害を克服することは、プライバシーに敏感なデータを含む多くの現実世界のアプリケーションシナリオにおいて、技術的進歩の鍵となる。
差分的プライベート(DP)データパブリッシングは、データの衛生化された形式のみを公開する、魅力的なソリューションを提供する。
論文 参考訳(メタデータ) (2023-09-27T14:38:16Z) - TeD-SPAD: Temporal Distinctiveness for Self-supervised
Privacy-preservation for video Anomaly Detection [59.04634695294402]
人間の監視のないビデオ異常検出(VAD)は複雑なコンピュータビジョンタスクである。
VADのプライバシー漏洩により、モデルは人々の個人情報に関連する不必要なバイアスを拾い上げ、増幅することができる。
本稿では,視覚的プライベート情報を自己管理的に破壊する,プライバシーに配慮したビデオ異常検出フレームワークTeD-SPADを提案する。
論文 参考訳(メタデータ) (2023-08-21T22:42:55Z) - Position: Considerations for Differentially Private Learning with Large-Scale Public Pretraining [75.25943383604266]
大規模なWebスクレイプデータセットの使用は、差分プライバシ保存と見なすべきかどうかを疑問視する。
Webデータ上で事前訓練されたこれらのモデルを“プライベート”として公開することで、市民のプライバシーに対する信頼を意味のあるプライバシの定義として損なう可能性があることを警告します。
公的な事前学習がより普及し、強力になるにつれて、私的な学習分野への道のりを議論することで、我々は結論づける。
論文 参考訳(メタデータ) (2022-12-13T10:41:12Z) - ConfounderGAN: Protecting Image Data Privacy with Causal Confounder [85.6757153033139]
本稿では,GAN(Generative Adversarial Network)のConfounderGANを提案する。
実験は、3つの自然なオブジェクトデータセットと3つの医療データセットからなる6つの画像分類データセットで実施される。
論文 参考訳(メタデータ) (2022-12-04T08:49:14Z) - How Do Input Attributes Impact the Privacy Loss in Differential Privacy? [55.492422758737575]
DPニューラルネットワークにおけるオブジェクトごとの規範と個人のプライバシ損失との関係について検討する。
プライバシ・ロス・インプット・サセプティビリティ(PLIS)と呼ばれる新しい指標を導入し、被験者のプライバシ・ロスを入力属性に適応させることを可能にした。
論文 参考訳(メタデータ) (2022-11-18T11:39:03Z) - Blinder: End-to-end Privacy Protection in Sensing Systems via
Personalized Federated Learning [5.803565897482636]
本稿では、分散化されたデータに基づいて訓練されたセンサデータ匿名化モデルを提案し、データユーティリティとプライバシの間に望ましいトレードオフを打つ。
我々の匿名化モデルはBlinderと呼ばれ、変分オートエンコーダと1つまたは複数の識別器ネットワークを逆行的に訓練した。
論文 参考訳(メタデータ) (2022-09-24T16:22:43Z) - Privacy-Utility Trades in Crowdsourced Signal Map Obfuscation [20.58763760239068]
クラウドソースセルラー信号強度測定は、ネットワーク性能を改善するために信号マップを生成するために使用できる。
我々は、データがモバイルデバイスを離れる前に、そのようなデータを難読化することを検討する。
評価結果は,多種多様な実世界の信号マップデータセットに基づいて,適切なプライバシとユーティリティを同時に実現可能であることを示す。
論文 参考訳(メタデータ) (2022-01-13T03:46:22Z) - Adversarial representation learning for synthetic replacement of private
attributes [0.7619404259039281]
第1ステップでは機密情報を除去し,第2ステップではこの情報を独立したランダムサンプルに置き換える,という2つのステップを含む,データ民営化のための新しいアプローチを提案する。
本手法は, より強い敵を騙すようにモデルを訓練することで, 強いプライバシを確保するために, 敵対表現学習を基盤としている。
論文 参考訳(メタデータ) (2020-06-14T22:07:19Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。