論文の概要: Releasing Differentially Private Event Logs Using Generative Models
- arxiv url: http://arxiv.org/abs/2504.06418v1
- Date: Tue, 08 Apr 2025 20:35:53 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-04-10 13:06:40.054492
- Title: Releasing Differentially Private Event Logs Using Generative Models
- Title(参考訳): 生成モデルを用いた異なるプライベートイベントログの緩和
- Authors: Frederik Wangelik, Majid Rafiei, Mahsa Pourbafrani, Wil M. P. van der Aalst,
- Abstract要約: 我々は、訓練された生成モデルに基づいて、プライベートトレースの変種をリリースするための2つの新しいアプローチを紹介する。
当社のアプローチは、プライバシー保証とユーティリティ保護の観点から、最先端技術を超えています。
- 参考スコア(独自算出の注目度): 0.13124513975412253
- License:
- Abstract: In recent years, the industry has been witnessing an extended usage of process mining and automated event data analysis. Consequently, there is a rising significance in addressing privacy apprehensions related to the inclusion of sensitive and private information within event data utilized by process mining algorithms. State-of-the-art research mainly focuses on providing quantifiable privacy guarantees, e.g., via differential privacy, for trace variants that are used by the main process mining techniques, e.g., process discovery. However, privacy preservation techniques designed for the release of trace variants are still insufficient to meet all the demands of industry-scale utilization. Moreover, ensuring privacy guarantees in situations characterized by a high occurrence of infrequent trace variants remains a challenging endeavor. In this paper, we introduce two novel approaches for releasing differentially private trace variants based on trained generative models. With TraVaG, we leverage \textit{Generative Adversarial Networks} (GANs) to sample from a privatized implicit variant distribution. Our second method employs \textit{Denoising Diffusion Probabilistic Models} that reconstruct artificial trace variants from noise via trained Markov chains. Both methods offer industry-scale benefits and elevate the degree of privacy assurances, particularly in scenarios featuring a substantial prevalence of infrequent variants. Also, they overcome the shortcomings of conventional privacy preservation techniques, such as bounding the length of variants and introducing fake variants. Experimental results on real-life event data demonstrate that our approaches surpass state-of-the-art techniques in terms of privacy guarantees and utility preservation.
- Abstract(参考訳): 近年、業界はプロセスマイニングと自動イベントデータ分析の拡張を目撃している。
その結果、プロセスマイニングアルゴリズムが活用するイベントデータに機密情報やプライベート情報を含めることに関連するプライバシー上の不安に対処する上で、ますます重要度が高まっている。
State-of-the-art Researchは主に、主なプロセスマイニング技術であるプロセス発見で使用されるトレース変種に対して、差分プライバシを通じて、定量化されたプライバシ保証を提供することに重点を置いている。
しかし, 微量変種のリリースのために設計されたプライバシ保護技術は, 産業規模での利用需要をすべて満たすには不十分である。
さらに、頻繁なトレース変種の発生を特徴とする状況におけるプライバシー保証の確保は、依然として困難な取り組みである。
本稿では、学習された生成モデルに基づいて、微分プライベートなトレース変種を2つの新しいアプローチでリリースする。
TraVaGでは,民営化された暗黙的変分分布のサンプルとして, \textit{Generative Adversarial Networks} (GANs) を利用する。
2つ目の方法は、訓練されたマルコフ連鎖を通して、ノイズから人工的トレース変種を再構成する「textit{Denoising Diffusion Probabilistic Models」を用いる。
どちらの手法も業界規模の利点を提供し、プライバシー保証の度合いを高める。
また、変種の長さの制限や偽変種の導入など、従来のプライバシー保護技術の欠点も克服している。
実生活のイベントデータによる実験結果から,我々のアプローチは,プライバシ保証と実用性保全の観点から最先端技術を上回っていることが明らかとなった。
関連論文リスト
- Differentially Private Random Feature Model [52.468511541184895]
プライバシを保存するカーネルマシンに対して,差分的にプライベートな特徴モデルを作成する。
本手法は,プライバシを保護し,一般化誤差を導出する。
論文 参考訳(メタデータ) (2024-12-06T05:31:08Z) - Differentially Private Adaptation of Diffusion Models via Noisy Aggregated Embeddings [23.687702204151872]
本稿では,差分プライバシー制約の下で拡散モデルを適用する新しい手法を提案する。
モデル重みを微調整することなく、プライバシ保存スタイルとコンテンツ転送を可能にする。
実験結果から, タイベース適応は, 強いプライバシー保証の下でも, スタイル伝達において優れた忠実性が得られることが示された。
論文 参考訳(メタデータ) (2024-11-22T00:09:49Z) - Activity Recognition on Avatar-Anonymized Datasets with Masked Differential Privacy [64.32494202656801]
プライバシを保存するコンピュータビジョンは、機械学習と人工知能において重要な問題である。
本稿では,ビデオデータセット中の感性のある被験者を文脈内の合成アバターに置き換える匿名化パイプラインを提案する。
また、匿名化されていないがプライバシーに敏感な背景情報を保護するため、MaskDPを提案する。
論文 参考訳(メタデータ) (2024-10-22T15:22:53Z) - A Unified View of Differentially Private Deep Generative Modeling [60.72161965018005]
プライバシー上の懸念のあるデータには、データアクセスとデータ共有を頻繁に禁止する厳格な規制が伴う。
これらの障害を克服することは、プライバシーに敏感なデータを含む多くの現実世界のアプリケーションシナリオにおいて、技術的進歩の鍵となる。
差分的プライベート(DP)データパブリッシングは、データの衛生化された形式のみを公開する、魅力的なソリューションを提供する。
論文 参考訳(メタデータ) (2023-09-27T14:38:16Z) - TraVaG: Differentially Private Trace Variant Generation Using GANs [0.4014524824655105]
TraVaGは、textGenerative Adversarial Networks (GAN) に基づいた、微分プライベートなトレース変種をリリースするための新しいアプローチである。
TraVaGは、変種の長さの制限や偽変種の導入など、従来のプライバシ保護技術の欠点を克服している。
論文 参考訳(メタデータ) (2023-03-29T13:54:32Z) - Breaking the Communication-Privacy-Accuracy Tradeoff with
$f$-Differential Privacy [51.11280118806893]
サーバが複数のユーザの協調的なデータ分析を,プライバシの懸念と限られた通信能力で調整する,フェデレートされたデータ分析問題を考える。
有限出力空間を有する離散値機構の局所的差分プライバシー保証を$f$-differential privacy (DP) レンズを用いて検討する。
より具体的には、様々な離散的評価機構の厳密な$f$-DP保証を導出することにより、既存の文献を前進させる。
論文 参考訳(メタデータ) (2023-02-19T16:58:53Z) - Differentially-Private Data Synthetisation for Efficient Re-Identification Risk Control [3.8811062755861956]
$epsilon$-PrivateSMOTEは、再識別とリンケージ攻撃を防ぐためのテクニックである。
提案手法は,ノイズに起因した逆数による合成データ生成と,高リスクケースを難読化するための差分プライバシー原則を組み合わせたものである。
論文 参考訳(メタデータ) (2022-12-01T13:20:37Z) - Private Set Generation with Discriminative Information [63.851085173614]
異なるプライベートなデータ生成は、データプライバシの課題に対する有望な解決策である。
既存のプライベートな生成モデルは、合成サンプルの有用性に苦慮している。
我々は,最先端アプローチのサンプルユーティリティを大幅に改善する,シンプルで効果的な手法を提案する。
論文 参考訳(メタデータ) (2022-11-07T10:02:55Z) - Differentially Private Estimation of Hawkes Process [81.20710494974281]
本稿では,Hawkesプロセスの離散化表現に基づいて,イベントストリームデータに対する微分プライバシーの厳密な定義を導入する。
次に、2つの微分プライベート最適化アルゴリズムを提案する。これにより、Hawkesプロセスモデルに望ましいプライバシとユーティリティの保証を持たせることができる。
論文 参考訳(メタデータ) (2022-09-15T13:59:23Z) - PEARL: Data Synthesis via Private Embeddings and Adversarial
Reconstruction Learning [1.8692254863855962]
本稿では, 深層生成モデルを用いたデータ・フレームワークを, 差分的にプライベートな方法で提案する。
当社のフレームワークでは、センシティブなデータは、厳格なプライバシ保証をワンショットで行うことで衛生化されています。
提案手法は理論的に性能が保証され,複数のデータセットに対する経験的評価により,提案手法が適切なプライバシーレベルで他の手法よりも優れていることが示された。
論文 参考訳(メタデータ) (2021-06-08T18:00:01Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。