論文の概要: TraVaG: Differentially Private Trace Variant Generation Using GANs
- arxiv url: http://arxiv.org/abs/2303.16704v1
- Date: Wed, 29 Mar 2023 13:54:32 GMT
- ステータス: 処理完了
- システム内更新日: 2023-03-30 14:41:57.941128
- Title: TraVaG: Differentially Private Trace Variant Generation Using GANs
- Title(参考訳): TraVaG:GANを用いた個人用トレースバリアント生成
- Authors: Majid Rafiei, Frederik Wangelik, Mahsa Pourbafrani, Wil M.P. van der
Aalst
- Abstract要約: TraVaGは、textGenerative Adversarial Networks (GAN) に基づいた、微分プライベートなトレース変種をリリースするための新しいアプローチである。
TraVaGは、変種の長さの制限や偽変種の導入など、従来のプライバシ保護技術の欠点を克服している。
- 参考スコア(独自算出の注目度): 0.4014524824655105
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Process mining is rapidly growing in the industry. Consequently, privacy
concerns regarding sensitive and private information included in event data,
used by process mining algorithms, are becoming increasingly relevant.
State-of-the-art research mainly focuses on providing privacy guarantees, e.g.,
differential privacy, for trace variants that are used by the main process
mining techniques, e.g., process discovery. However, privacy preservation
techniques for releasing trace variants still do not fulfill all the
requirements of industry-scale usage. Moreover, providing privacy guarantees
when there exists a high rate of infrequent trace variants is still a
challenge. In this paper, we introduce TraVaG as a new approach for releasing
differentially private trace variants based on \text{Generative Adversarial
Networks} (GANs) that provides industry-scale benefits and enhances the level
of privacy guarantees when there exists a high ratio of infrequent variants.
Moreover, TraVaG overcomes shortcomings of conventional privacy preservation
techniques such as bounding the length of variants and introducing fake
variants. Experimental results on real-life event data show that our approach
outperforms state-of-the-art techniques in terms of privacy guarantees, plain
data utility preservation, and result utility preservation.
- Abstract(参考訳): 産業ではプロセスマイニングが急速に成長している。
その結果、プロセスマイニングアルゴリズムが使用するイベントデータに含まれる機密情報やプライベート情報に関するプライバシの懸念が高まっている。
最先端の研究は主に、例えば、プロセス発見などの主要なプロセスマイニング技術で使用されるトレース変種に対して、差分プライバシーなどのプライバシー保証を提供することに焦点を当てている。
しかしながら、トレースの変種をリリースするためのプライバシ保護技術は、まだ産業規模での利用要件をすべて満たしていない。
さらに、低頻度のトレース変異が存在する場合に、プライバシの保証を提供することは依然として課題である。
本稿では,業界規模のメリットを提供し,頻繁な変動率が存在する場合のプライバシ保証のレベルを向上する, \text{Generative Adversarial Networks} (GANs) に基づく,微分プライベートなトレース変種をリリースするための新しいアプローチとしてTraVaGを紹介する。
さらに、TraVaGは、変種の長さの制限や偽変種の導入など、従来のプライバシー保護技術の欠点を克服している。
実生活イベントデータを用いた実験結果から, プライバシー保証, 基本データ保護, 実用性保全の観点から, 最先端技術よりも優れた手法が得られた。
関連論文リスト
- Masked Differential Privacy [64.32494202656801]
本稿では,差分プライバシーを適用した機密領域を制御できる「マスク型差分プライバシー(DP)」という効果的なアプローチを提案する。
提案手法はデータに基づいて選択的に動作し,DPアプリケーションや差分プライバシーをデータサンプル内の他のプライバシー技術と組み合わせることなく,非感性時間領域を定義できる。
論文 参考訳(メタデータ) (2024-10-22T15:22:53Z) - Synthetic Data: Revisiting the Privacy-Utility Trade-off [4.832355454351479]
ある記事は、合成データは従来の匿名化技術よりもプライバシーとユーティリティのトレードオフが良くないと述べている。
記事はまた、PATEGANとPrivBayesが提供した差分プライバシー保証の違反を特定したと主張している。
本稿で記述したプライバシゲームの実装を分析し,高度に専門的で制約のある環境で動作していることを確認した。
論文 参考訳(メタデータ) (2024-07-09T14:48:43Z) - Provable Privacy with Non-Private Pre-Processing [56.770023668379615]
非プライベートなデータ依存前処理アルゴリズムによって生じる追加のプライバシーコストを評価するための一般的なフレームワークを提案する。
当社のフレームワークは,2つの新しい技術的概念を活用することにより,全体的なプライバシー保証の上限を確立する。
論文 参考訳(メタデータ) (2024-03-19T17:54:49Z) - Preserving Node-level Privacy in Graph Neural Networks [8.823710998526705]
グラフニューラルネットワーク(GNN)におけるノードレベルのプライバシの問題に対処するソリューションを提案する。
提案プロトコルは,1) 特定のノードサンプリング戦略と一連の調整操作を用いて所望の特性を持つサブグラフを生成するHeterPoissonと呼ばれるサンプリングルーチンと,2) 一般的に使用されるガウスノイズの代わりに対称ラプラスノイズを利用するランダム化ルーチンとからなる。
提案プロトコルは,実世界の5つのデータセットを用いた実験によって実証された,優れた性能でGNN学習を可能にする。
論文 参考訳(メタデータ) (2023-11-12T16:21:29Z) - A Unified View of Differentially Private Deep Generative Modeling [60.72161965018005]
プライバシー上の懸念のあるデータには、データアクセスとデータ共有を頻繁に禁止する厳格な規制が伴う。
これらの障害を克服することは、プライバシーに敏感なデータを含む多くの現実世界のアプリケーションシナリオにおいて、技術的進歩の鍵となる。
差分的プライベート(DP)データパブリッシングは、データの衛生化された形式のみを公開する、魅力的なソリューションを提供する。
論文 参考訳(メタデータ) (2023-09-27T14:38:16Z) - A Randomized Approach for Tight Privacy Accounting [63.67296945525791]
推定検証リリース(EVR)と呼ばれる新しい差分プライバシーパラダイムを提案する。
EVRパラダイムは、まずメカニズムのプライバシパラメータを推定し、その保証を満たすかどうかを確認し、最後にクエリ出力を解放する。
我々の実証的な評価は、新たに提案されたEVRパラダイムが、プライバシ保護機械学習のユーティリティプライバシトレードオフを改善することを示している。
論文 参考訳(メタデータ) (2023-04-17T00:38:01Z) - Differentially-Private Data Synthetisation for Efficient Re-Identification Risk Control [3.8811062755861956]
$epsilon$-PrivateSMOTEは、再識別とリンケージ攻撃を防ぐためのテクニックである。
提案手法は,ノイズに起因した逆数による合成データ生成と,高リスクケースを難読化するための差分プライバシー原則を組み合わせたものである。
論文 参考訳(メタデータ) (2022-12-01T13:20:37Z) - Private Set Generation with Discriminative Information [63.851085173614]
異なるプライベートなデータ生成は、データプライバシの課題に対する有望な解決策である。
既存のプライベートな生成モデルは、合成サンプルの有用性に苦慮している。
我々は,最先端アプローチのサンプルユーティリティを大幅に改善する,シンプルで効果的な手法を提案する。
論文 参考訳(メタデータ) (2022-11-07T10:02:55Z) - Distribution-Invariant Differential Privacy [4.700764053354502]
本研究では,高い統計的精度と厳密な差分プライバシーを両立する分布不変民営化法(DIP)を提案する。
同じ厳密なプライバシー保護の下で、DIPは2つのシミュレーションと3つの実世界のベンチマークで優れた統計的精度を達成する。
論文 参考訳(メタデータ) (2021-11-08T22:26:50Z) - Private Reinforcement Learning with PAC and Regret Guarantees [69.4202374491817]
エピソード強化学習(RL)のためのプライバシー保護探索ポリシーを設計する。
まず、共同微分プライバシー(JDP)の概念を用いた有意義なプライバシー定式化を提供する。
そこで我々は,強いPACと後悔境界を同時に達成し,JDP保証を享受する,プライベートな楽観主義に基づく学習アルゴリズムを開発した。
論文 参考訳(メタデータ) (2020-09-18T20:18:35Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。