論文の概要: CLOAK: Contrastive Guidance for Latent Diffusion-Based Data Obfuscation
- arxiv url: http://arxiv.org/abs/2512.12086v1
- Date: Fri, 12 Dec 2025 23:30:43 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-12-16 17:54:56.107862
- Title: CLOAK: Contrastive Guidance for Latent Diffusion-Based Data Obfuscation
- Title(参考訳): CLOAK: 遅延拡散に基づくデータ難読化のための対照的なガイダンス
- Authors: Xin Yang, Omid Ardakanian,
- Abstract要約: データ難読化は、半信頼できる当事者による属性推論攻撃を軽減し、センサーが出力する時系列データにアクセスするための有望な手法である。
潜在拡散モデルに基づく新しいデータ難読化フレームワークであるClakを提案する。
従来の研究とは対照的に,非交叉表現を抽出するためにコントラスト学習を用い,個人情報を隠蔽しながら有用な情報を保持するために潜伏拡散過程を導出する。
- 参考スコア(独自算出の注目度): 6.2048266436284605
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Data obfuscation is a promising technique for mitigating attribute inference attacks by semi-trusted parties with access to time-series data emitted by sensors. Recent advances leverage conditional generative models together with adversarial training or mutual information-based regularization to balance data privacy and utility. However, these methods often require modifying the downstream task, struggle to achieve a satisfactory privacy-utility trade-off, or are computationally intensive, making them impractical for deployment on resource-constrained mobile IoT devices. We propose Cloak, a novel data obfuscation framework based on latent diffusion models. In contrast to prior work, we employ contrastive learning to extract disentangled representations, which guide the latent diffusion process to retain useful information while concealing private information. This approach enables users with diverse privacy needs to navigate the privacy-utility trade-off with minimal retraining. Extensive experiments on four public time-series datasets, spanning multiple sensing modalities, and a dataset of facial images demonstrate that Cloak consistently outperforms state-of-the-art obfuscation techniques and is well-suited for deployment in resource-constrained settings.
- Abstract(参考訳): データ難読化(Data obfuscation)は、半信頼できる当事者による属性推論攻撃を軽減し、センサーが出力する時系列データにアクセスするための有望なテクニックである。
近年の進歩は、データプライバシとユーティリティのバランスをとるために、条件付き生成モデルと、敵対的トレーニングや相互情報ベース正規化を併用して活用している。
しかしながら、これらの方法は、ダウンストリームタスクを変更したり、十分なプライバシーユーティリティトレードオフを達成するのに苦労したり、あるいは計算集約的な方法で、リソースに制約のあるモバイルIoTデバイスへのデプロイには実用的ではない。
潜在拡散モデルに基づく新しいデータ難読化フレームワークであるClakを提案する。
従来の研究とは対照的に,非交叉表現を抽出するためにコントラスト学習を用い,個人情報を隠蔽しながら有用な情報を保持するために潜伏拡散過程を導出する。
このアプローチにより、さまざまなプライバシが必要なユーザは、最小限の再トレーニングで、プライバシユーティリティトレードオフをナビゲートできる。
4つの公開時系列データセット、複数のセンシングモード、および顔画像のデータセットに関する大規模な実験は、Cloakが常に最先端の難読化技術より優れており、リソース制約された設定でのデプロイメントに適していることを示している。
関連論文リスト
- Continuous-time Discrete-space Diffusion Model for Recommendation [25.432419904462694]
CDRecは、新しいContinuous-time Discrete-space Diffusion Recommendationフレームワークである。
これは推奨精度と計算効率の両方において優れている。
実世界のデータセットの実験は、推奨精度と計算効率の両方においてCDRecの優れた性能を示す。
論文 参考訳(メタデータ) (2025-11-15T09:06:57Z) - Improving Noise Efficiency in Privacy-preserving Dataset Distillation [59.57846442477106]
本稿では,最適化からサンプリングを分離してコンバージェンスを向上し,信号品質を向上させる新しいフレームワークを提案する。
CIFAR-10では,従来の最先端手法の蒸留セットサイズを5分の1に減らして,クラス毎50イメージでtextbf10.0%,クラス毎50イメージで textbf8.3%向上した。
論文 参考訳(メタデータ) (2025-08-03T13:15:52Z) - PrivDiffuser: Privacy-Guided Diffusion Model for Data Obfuscation in Sensor Networks [4.91258288207688]
IoT(Internet of Things)デバイスによって収集されたセンサデータは、個人に関する機密性の高い個人情報を明らかにすることができる。
生成モデルによって強化されたデータ難読化は、合成データを生成するための有望なアプローチである。
データユーティリティとプライバシのトレードオフを優れたものにする新しいデータ難読化手法であるPrivDiffuserを提案する。
論文 参考訳(メタデータ) (2024-12-19T03:47:12Z) - Pseudo-Probability Unlearning: Towards Efficient and Privacy-Preserving Machine Unlearning [59.29849532966454]
本稿では,PseudoProbability Unlearning (PPU)を提案する。
提案手法は,最先端の手法に比べて20%以上の誤りを忘れる改善を実現している。
論文 参考訳(メタデータ) (2024-11-04T21:27:06Z) - Ungeneralizable Examples [70.76487163068109]
学習不能なデータを作成するための現在のアプローチには、小さくて特殊なノイズが組み込まれている。
学習不能データの概念を条件付きデータ学習に拡張し、textbfUntextbf Generalizable textbfExamples (UGEs)を導入する。
UGEは認証されたユーザに対して学習性を示しながら、潜在的なハッカーに対する非学習性を維持している。
論文 参考訳(メタデータ) (2024-04-22T09:29:14Z) - Bistochastically private release of data streams with zero delay [0.0]
本稿では、正式なプライバシー保証を示しながら遅延をゼロにするデータストリームの匿名化のためのプロトコルを提案する。
ストリームを入力した個人に対して,バッチ処理ではなく,アトミックな処理を実現することが可能であることを示す。
論文 参考訳(メタデータ) (2024-02-25T14:18:14Z) - The Devil's Advocate: Shattering the Illusion of Unexploitable Data
using Diffusion Models [14.018862290487617]
データ保護の摂動に対抗して、慎重に設計された分極処理が可能であることを示す。
AVATARと呼ばれる我々のアプローチは、最近のアベイラビリティーアタックに対して最先端のパフォーマンスを提供する。
論文 参考訳(メタデータ) (2023-03-15T10:20:49Z) - Private Set Generation with Discriminative Information [63.851085173614]
異なるプライベートなデータ生成は、データプライバシの課題に対する有望な解決策である。
既存のプライベートな生成モデルは、合成サンプルの有用性に苦慮している。
我々は,最先端アプローチのサンプルユーティリティを大幅に改善する,シンプルで効果的な手法を提案する。
論文 参考訳(メタデータ) (2022-11-07T10:02:55Z) - Over-the-Air Federated Learning with Privacy Protection via Correlated
Additive Perturbations [57.20885629270732]
我々は、複数のユーザ/エージェントからエッジサーバへの勾配更新をOtA(Over-the-Air)で送信することで、無線フェデレーション学習のプライバシー面を考察する。
従来の摂動に基づく手法は、トレーニングの精度を犠牲にしてプライバシー保護を提供する。
本研究では,エッジサーバにおけるプライバシリークの最小化とモデル精度の低下を目標とする。
論文 参考訳(メタデータ) (2022-10-05T13:13:35Z) - Differentially Private Federated Learning with Laplacian Smoothing [72.85272874099644]
フェデレートラーニングは、ユーザ間でプライベートデータを共有せずに、協調的にモデルを学習することで、データのプライバシを保護することを目的としている。
敵は、リリースしたモデルを攻撃することによって、プライベートトレーニングデータを推測することができる。
差別化プライバシは、トレーニングされたモデルの正確性や実用性を著しく低下させる価格で、このような攻撃に対する統計的保護を提供する。
論文 参考訳(メタデータ) (2020-05-01T04:28:38Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。