論文の概要: Privacy and Confidentiality Requirements Engineering for Process Data
- arxiv url: http://arxiv.org/abs/2505.10965v1
- Date: Fri, 16 May 2025 08:03:02 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-19 14:36:14.290171
- Title: Privacy and Confidentiality Requirements Engineering for Process Data
- Title(参考訳): プロセスデータのプライバシと信頼性が要求されるエンジニアリング
- Authors: Fabian Haertel, Juergen Mangler, Nataliia Klievtsova, Celine Mader, Eugen Rigger, Stefanie Rinderle-Ma,
- Abstract要約: 本研究は,プライバシと機密性工学手法(PCRE)に基づくプロセスデータの機密性に対処する。
2つの製造業におけるプロセスアナリストとの構造化インタビューに基づいてPCREを共同構築・評価する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The application and development of process mining techniques face significant challenges due to the lack of publicly available real-life event logs. One reason for companies to abstain from sharing their data are privacy and confidentiality concerns. Privacy concerns refer to personal data as specified in the GDPR and have been addressed in existing work by providing privacy-preserving techniques for event logs. However, the concept of confidentiality in event logs not pertaining to individuals remains unclear, although they might contain a multitude of sensitive business data. This work addresses confidentiality of process data based on the privacy and confidentiality engineering method (PCRE). PCRE interactively explores privacy and confidentiality requirements regarding process data with different stakeholders and defines privacy-preserving actions to address possible concerns. We co-construct and evaluate PCRE based on structured interviews with process analysts in two manufacturing companies. PCRE is generic, hence applicable in different application domains. The goal is to systematically scrutinize process data and balance the trade-off between privacy and utility loss.
- Abstract(参考訳): プロセスマイニング技術の適用と開発は、公開のリアルタイムイベントログがないため、重大な課題に直面します。
企業がデータの共有を控える理由の1つは、プライバシーと機密性に関する懸念だ。
プライバシに関する懸念は、GDPRで指定された個人データを参照し、イベントログのプライバシ保護技術を提供することによって、既存の作業で対処されている。
しかし、個人に関係のないイベントログにおける機密性の概念は、非常に機密性の高いビジネスデータを含む可能性があるが、まだ不明である。
この作業は、プライバシと機密性エンジニアリング手法(PCRE)に基づいて、プロセスデータの機密性に対処する。
PCREは、異なる利害関係者によるプロセスデータに関するプライバシと機密性の要件をインタラクティブに検討し、潜在的な懸念に対処するためのプライバシ保護アクションを定義する。
2つの製造業におけるプロセスアナリストとの構造化インタビューに基づいてPCREを共同構築・評価する。
PCREは汎用的であるため、異なるアプリケーションドメインに適用できる。
目標は、プロセスデータを体系的に精査し、プライバシとユーティリティ損失の間のトレードオフをバランスさせることだ。
関連論文リスト
- Differential Privacy Overview and Fundamental Techniques [63.0409690498569]
この章は、"Differential Privacy in Artificial Intelligence: From Theory to Practice"という本の一部である。
まず、データのプライバシ保護のためのさまざまな試みについて説明し、その失敗の場所と理由を強調した。
次に、プライバシ保護データ分析の領域を構成する重要なアクター、タスク、スコープを定義する。
論文 参考訳(メタデータ) (2024-11-07T13:52:11Z) - Activity Recognition on Avatar-Anonymized Datasets with Masked Differential Privacy [64.32494202656801]
プライバシを保存するコンピュータビジョンは、機械学習と人工知能において重要な問題である。
本稿では,ビデオデータセット中の感性のある被験者を文脈内の合成アバターに置き換える匿名化パイプラインを提案する。
また、匿名化されていないがプライバシーに敏感な背景情報を保護するため、MaskDPを提案する。
論文 参考訳(メタデータ) (2024-10-22T15:22:53Z) - PrivacyLens: Evaluating Privacy Norm Awareness of Language Models in Action [54.11479432110771]
PrivacyLensは、プライバシに敏感な種子を表現的なヴィグネットに拡張し、さらにエージェントの軌跡に拡張するために設計された新しいフレームワークである。
プライバシの文献とクラウドソーシングされたシードに基づいて、プライバシの規範のコレクションをインスタンス化する。
GPT-4やLlama-3-70Bのような最先端のLMは、プライバシー強化の指示が出されたとしても、機密情報を25.68%、38.69%のケースでリークしている。
論文 参考訳(メタデータ) (2024-08-29T17:58:38Z) - Privacy-Preserving Language Model Inference with Instance Obfuscation [33.86459812694288]
言語モデル・アズ・ア・サービス(LM)は、開発者や研究者が事前訓練された言語モデルを使用して推論を行うための便利なアクセスを提供する。
入力データとプライベート情報を含む推論結果は、サービスコール中にプレーンテキストとして公開され、プライバシー上の問題が発生する。
本稿では,自然言語理解タスクにおける決定プライバシ問題に対処することに焦点を当てた,インスタンス・オブフルスケート推論(IOI)手法を提案する。
論文 参考訳(メタデータ) (2024-02-13T05:36:54Z) - Privately Answering Queries on Skewed Data via Per Record Differential Privacy [8.376475518184883]
我々はプライバシ・フォーマリズムを提案し、PzCDP(0集中差分プライバシー)を記録単位とする。
異なるレコードに対して異なるプライバシー損失を提供する他の形式主義とは異なり、PRzCDPのプライバシー損失は機密データに明示的に依存する。
論文 参考訳(メタデータ) (2023-10-19T15:24:49Z) - Libertas: Privacy-Preserving Collective Computation for Decentralised Personal Data Stores [18.91869691495181]
モジュールアーキテクチャであるLibertasを導入し、MPCとSolidのようなPSDを統合する。
我々は、全知的な視点から、個人ベースの、ユーザ中心の信頼とセキュリティへのパラダイムシフトを紹介します。
論文 参考訳(メタデータ) (2023-09-28T12:07:40Z) - A Randomized Approach for Tight Privacy Accounting [63.67296945525791]
推定検証リリース(EVR)と呼ばれる新しい差分プライバシーパラダイムを提案する。
EVRパラダイムは、まずメカニズムのプライバシパラメータを推定し、その保証を満たすかどうかを確認し、最後にクエリ出力を解放する。
我々の実証的な評価は、新たに提案されたEVRパラダイムが、プライバシ保護機械学習のユーティリティプライバシトレードオフを改善することを示している。
論文 参考訳(メタデータ) (2023-04-17T00:38:01Z) - On Privacy and Confidentiality of Communications in Organizational
Graphs [3.5270468102327004]
この研究は、企業コンテキストにおける機密性とプライバシの区別方法を示している。
それは、機密性を維持するためのアプローチを定式化し、差分プライバシーの原則を活用することを目的としている。
論文 参考訳(メタデータ) (2021-05-27T19:45:56Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。