論文の概要: Differentially Private Inductive Miner
- arxiv url: http://arxiv.org/abs/2407.04595v2
- Date: Fri, 4 Oct 2024 12:46:23 GMT
- ステータス: 処理完了
- システム内更新日: 2024-11-08 23:46:45.206184
- Title: Differentially Private Inductive Miner
- Title(参考訳): 微分プライベートインダクティブマイナー
- Authors: Max Schulze, Yorck Zisgen, Moritz Kirschte, Esfandiar Mohammadi, Agnes Koschmider,
- Abstract要約: プライバシ保存方式でプロセスツリーを学習することで、センシティブなイベントトレースを要約する課題に取り組む方法を提案する。
我々は、いわゆる差分プライバシー(DP)プロパティを通して、結果の要約から、イベントトレース内の任意の個人データについて有用な推論ができないことを証明した。
実験の結果,DPIMは個人データを保護するだけでなく,インダクティブ・マイナーよりも有用性が低い忠実なプロセスツリーを生成することがわかった。
- 参考スコア(独自算出の注目度): 0.5714428240080668
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Protecting personal data about individuals, such as event traces in process mining, is an inherently difficult task since an event trace leaks information about the path in a process model that an individual has triggered. Yet, prior anonymization methods of event traces like k-anonymity or event log sanitization struggled to protect against such leakage, in particular against adversaries with sufficient background knowledge. In this work, we provide a method that tackles the challenge of summarizing sensitive event traces by learning the underlying process tree in a privacy-preserving manner. We prove via the so-called Differential Privacy (DP) property that from the resulting summaries no useful inference can be drawn about any personal data in an event trace. On the technical side, we introduce a differentially private approximation (DPIM) of the Inductive Miner. Experimentally, we compare our DPIM with the Inductive Miner on 14 real-world event traces by evaluating well-known metrics: fitness, precision, simplicity, and generalization. The experiments show that our DPIM not only protects personal data but also generates faithful process trees that exhibit little utility loss above the Inductive Miner.
- Abstract(参考訳): プロセスマイニングにおけるイベントトレースのような個人に関する個人データの保護は、個人が引き起こしたプロセスモデルにおいて、イベントトレースがパスに関する情報を漏らすため、本質的に難しい作業である。
しかし、k-匿名性やイベントログの衛生化といったイベントトレースの以前の匿名化手法は、そのようなリークに対して、特に十分な背景知識を持つ敵に対する防御に苦慮していた。
本研究では,プライバシ保護方式でプロセスツリーを学習し,センシティブなイベントトレースを要約する手法を提案する。
我々は、いわゆる差分プライバシー(DP)プロパティを通して、結果の要約から、イベントトレース内の任意の個人データについて有用な推論ができないことを証明した。
技術的には、インダクティブマイナーの微分プライベート近似(DPIM)を導入する。
実験により、DPIMとインダクティブマイナーを14の現実世界のイベントトレースで比較し、フィットネス、精度、単純さ、一般化といったよく知られた指標を評価した。
実験の結果,DPIMは個人データを保護するだけでなく,インダクティブ・マイナーよりも有効性が低い忠実なプロセスツリーを生成することがわかった。
関連論文リスト
- Masked Differential Privacy [64.32494202656801]
本稿では,差分プライバシーを適用した機密領域を制御できる「マスク型差分プライバシー(DP)」という効果的なアプローチを提案する。
提案手法はデータに基づいて選択的に動作し,DPアプリケーションや差分プライバシーをデータサンプル内の他のプライバシー技術と組み合わせることなく,非感性時間領域を定義できる。
論文 参考訳(メタデータ) (2024-10-22T15:22:53Z) - UTrace: Poisoning Forensics for Private Collaborative Learning [8.161400729150209]
我々は、マシンラーニング(PPML)における中毒攻撃のユーザレベルトレースバックのためのフレームワークであるUTraceを紹介する。
UTraceは低毒性率で有効であり、複数のデータ所有者に分散した攻撃に対して耐性がある。
10件の中毒に対するUTraceの有効性を示した。
論文 参考訳(メタデータ) (2024-09-23T15:32:46Z) - Adaptive Differentially Private Structural Entropy Minimization for Unsupervised Social Event Detection [29.13690542566747]
社会的事象の検出は、意見分析、社会的安全、意思決定など、多くの分野で重要である。
現在のほとんどのメソッドは監視されており、大量のデータにアクセスする必要があります。
プライバシを優先する,教師なしのソーシャルイベント検出手法であるADP-SEMEventを提案する。
論文 参考訳(メタデータ) (2024-07-23T11:19:22Z) - Detecting Anomalous Events in Object-centric Business Processes via
Graph Neural Networks [55.583478485027]
本研究では,ビジネスプロセスにおける異常検出のための新しいフレームワークを提案する。
まず、属性グラフとしてオブジェクト中心のイベントログのプロセス依存性を再構築する。
次に、異常事象を検出するために、グラフ畳み込みオートエンコーダアーキテクチャを用いる。
論文 参考訳(メタデータ) (2024-02-14T14:17:56Z) - A Simple Solution for Offline Imitation from Observations and Examples
with Possibly Incomplete Trajectories [122.11358440078581]
オフラインの模倣は、任意のインタラクションがコストがかかり、専門家のアクションが利用できない現実世界のシナリオで有用である。
本研究では,タスク固有の専門的状態とタスクに依存しない非専門的状態-アクションペアのみを利用できるMPPを解決するために,観察から学習するトラジェクトリ・アウェア・ラーニング(TAILO)を提案する。
論文 参考訳(メタデータ) (2023-11-02T15:41:09Z) - Diff-Privacy: Diffusion-based Face Privacy Protection [58.1021066224765]
本稿では,Diff-Privacyと呼ばれる拡散モデルに基づく顔のプライバシー保護手法を提案する。
具体的には、提案したマルチスケール画像インバージョンモジュール(MSI)をトレーニングし、元の画像のSDMフォーマット条件付き埋め込みのセットを得る。
本研究は,条件付き埋め込みに基づいて,組込みスケジューリング戦略を設計し,デノナイズプロセス中に異なるエネルギー関数を構築し,匿名化と視覚的アイデンティティ情報隠蔽を実現する。
論文 参考訳(メタデータ) (2023-09-11T09:26:07Z) - How Do Input Attributes Impact the Privacy Loss in Differential Privacy? [55.492422758737575]
DPニューラルネットワークにおけるオブジェクトごとの規範と個人のプライバシ損失との関係について検討する。
プライバシ・ロス・インプット・サセプティビリティ(PLIS)と呼ばれる新しい指標を導入し、被験者のプライバシ・ロスを入力属性に適応させることを可能にした。
論文 参考訳(メタデータ) (2022-11-18T11:39:03Z) - Partial sensitivity analysis in differential privacy [58.730520380312676]
それぞれの入力特徴が個人のプライバシ損失に与える影響について検討する。
プライベートデータベース上でのクエリに対する我々のアプローチを実験的に評価する。
また、合成データにおけるニューラルネットワークトレーニングの文脈における知見についても検討する。
論文 参考訳(メタデータ) (2021-09-22T08:29:16Z) - SaCoFa: Semantics-aware Control-flow Anonymization for Process Mining [4.806322013167162]
プロセスのセマンティクスを組み込んだプライバシー保護について論じる。
指数関数的なメカニズムに基づいて,クエリ結果の差分プライバシーを確保するためにセマンティック制約が組み込まれていることを示す。
論文 参考訳(メタデータ) (2021-09-17T12:26:49Z) - A Distance Measure for Privacy-preserving Process Mining based on
Feature Learning [5.250561515565923]
イベントの埋め込みがトレースの距離測定値の定義を可能にし、イベントログの匿名化を導く方法を示す。
実世界のデータを用いた実験により, この測定値を用いた匿名化が, 様々な次元において, 元のログに近いログを生成することを示す。
論文 参考訳(メタデータ) (2021-07-14T09:44:28Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。