論文の概要: Converting BPMN Diagrams to Privacy Calculus
- arxiv url: http://arxiv.org/abs/2410.23759v1
- Date: Thu, 31 Oct 2024 09:25:23 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-11-01 17:03:40.685190
- Title: Converting BPMN Diagrams to Privacy Calculus
- Title(参考訳): BPMNダイアグラムをプライバシ計算に変換する
- Authors: Georgios V. Pitsiladis, Petros S. Stefaneas,
- Abstract要約: 本稿では、BPMNダイアグラムのサブセットをPrivacy Calculusの用語に変換する方法について述べる。
この変換は数学的に論文に記載されているが、ソフトウェアツールとしても実装されている。
- 参考スコア(独自算出の注目度): 0.0
- License:
- Abstract: The ecosystem of Privacy Calculus is a formal framework for privacy comprising (a) the Privacy Calculus, a Turing-complete language of message-exchanging processes based on the pi-calculus, (b) a privacy policy language, and (c) a type checker that checks adherence of Privacy Calculus terms to privacy policies. BPMN is a standard for the graphical description of business processes which aims to be understandable by all business users, from those with no technical background to those implementing software. This paper presents how (a subset of) BPMN diagrams can be converted to Privacy Calculus terms, in the hope that it will serve as a small piece of larger workflows for building privacy-preserving software. The conversion is described mathematically in the paper, but has also been implemented as a software tool.
- Abstract(参考訳): プライバシ計算のエコシステムは、プライバシを構成する正式なフレームワークである
(a)pi-calculusに基づくメッセージ交換プロセスのチューリング完全言語であるPrivacy Calculus
b)プライバシーポリシー言語,及び
(c)プライバシ規約のプライバシポリシーへの準拠をチェックする型チェッカー。
BPMNはビジネスプロセスのグラフィカルな記述の標準であり、技術的背景のない人からソフトウェアを実装する人まで、すべてのビジネスユーザーが理解できるようにすることを目的としています。
本稿では、(サブセット)BPMNダイアグラムが、プライバシを保存するソフトウェアを構築するための、より大規模なワークフローの小さな部分として機能することを願って、Privacy Calculusの用語にどのように変換できるかを示す。
この変換は数学的に論文に記載されているが、ソフトウェアツールとしても実装されている。
関連論文リスト
- Private Counterfactual Retrieval [34.11302393278422]
透明性と説明可能性は、ブラックボックス機械学習モデルを採用する際に考慮すべき極めて重要な2つの側面である。
反実的な説明を提供することは、この要件を満たす一つの方法である。
プライベート情報検索(PIR)技術にインスパイアされた複数のスキームを提案する。
論文 参考訳(メタデータ) (2024-10-17T17:45:07Z) - PolicyLR: A Logic Representation For Privacy Policies [34.73520882451813]
我々は、プライバシポリシーの包括的な機械可読表現を提供する新しいパラダイムであるPolicyLRを提案する。
PolicyLRは、プライバシーポリシーを原子式の評価を用いて機械可読形式に変換する。
ポリシコンプライアンス,一貫性検出,プライバシ比較ショッピングという3つのプライバシタスクにおいて,ポリシLRを実証する。
論文 参考訳(メタデータ) (2024-08-27T07:27:16Z) - Provable Privacy with Non-Private Pre-Processing [56.770023668379615]
非プライベートなデータ依存前処理アルゴリズムによって生じる追加のプライバシーコストを評価するための一般的なフレームワークを提案する。
当社のフレームワークは,2つの新しい技術的概念を活用することにより,全体的なプライバシー保証の上限を確立する。
論文 参考訳(メタデータ) (2024-03-19T17:54:49Z) - PLUE: Language Understanding Evaluation Benchmark for Privacy Policies
in English [77.79102359580702]
プライバシポリシ言語理解評価ベンチマークは,プライバシポリシ言語理解を評価するマルチタスクベンチマークである。
また、プライバシポリシの大規模なコーパスを収集し、プライバシポリシドメイン固有の言語モデル事前トレーニングを可能にします。
ドメイン固有の連続的な事前トレーニングは、すべてのタスクでパフォーマンスを改善することを実証します。
論文 参考訳(メタデータ) (2022-12-20T05:58:32Z) - Differentially Private Graph Learning via Sensitivity-Bounded
Personalized PageRank [74.53857412207034]
本稿では,近似的なPPRを出力し,入力エッジに有界な感度を持つアルゴリズムを提案する。
我々の感度バウンドPPRは、差分プライベート(DP)PPRランキング、DPノード分類、DPノード埋め込みなど、グラフ学習のいくつかのツールのプライベートアルゴリズムを直接意味している。
論文 参考訳(メタデータ) (2022-07-14T14:08:59Z) - THE-X: Privacy-Preserving Transformer Inference with Homomorphic
Encryption [112.02441503951297]
トランスフォーマーモデルのプライバシ保護推論は、クラウドサービスユーザの要求に基づいています。
我々は、事前訓練されたモデルのプライバシ保存推論を可能にするトランスフォーマーの近似アプローチである$textitTHE-X$を紹介した。
論文 参考訳(メタデータ) (2022-06-01T03:49:18Z) - Privacy enabled Financial Text Classification using Differential Privacy
and Federated Learning [0.0]
差分プライバシー (DP) やフェデレートラーニング (FL) などのプライバシー機能と統合した文脈化テキスト分類モデルを提案する。
我々は、NLPモデルと望ましいプライバシ・ユーティリティ・トレードオフをプライベートにトレーニングする方法を示し、それらをファイナンシャル・フレーズ・バンクのデータセットで評価する。
論文 参考訳(メタデータ) (2021-10-04T18:15:32Z) - Optimal Accounting of Differential Privacy via Characteristic Function [25.78065563380023]
本稿では,プライバシ・プロフィール,プライバシ・プロファイル,$f$-DP,PLDフォーマリズムなどの最近の進歩を,ある最悪のケースのプライバシ・ロスランダム変数の特徴関数(phi$-function)を介して統一することを提案する。
我々のアプローチは、Renyi DPのような自然適応的な構成を可能にし、PDDのような厳密なプライバシ会計を提供し、プライバシープロファイルや$f$-DPに変換できることが示されています。
論文 参考訳(メタデータ) (2021-06-16T06:13:23Z) - A Graph Federated Architecture with Privacy Preserving Learning [48.24121036612076]
フェデレーション学習は、複数のエージェントと連携してグローバルモデルを見つける中央プロセッサを含む。
複数のクライアントに接続されたサーバの現在のアーキテクチャは、サーバの通信障害や計算過負荷に非常に敏感です。
暗号と差分プライバシーの概念を使用して、グラフ構造に拡張するフェデレーション学習アルゴリズムを民営化します。
論文 参考訳(メタデータ) (2021-04-26T09:51:24Z) - Learning Differentially Private Mechanisms [13.40946759638048]
特定の非プライベートプログラムの正確で微分的なプライベートバージョンを自動的に学習する手法を提案する。
本手法は, 差分プライバシー文献から基礎的アルゴリズムを学習し, 自然なプログラム合成ベースラインを著しく上回っていることを示す。
論文 参考訳(メタデータ) (2021-01-04T13:33:57Z) - PGLP: Customizable and Rigorous Location Privacy through Policy Graph [68.3736286350014]
我々はPGLPと呼ばれる新しい位置プライバシーの概念を提案し、カスタマイズ可能で厳格なプライバシー保証を備えたプライベートロケーションをリリースするためのリッチなインターフェースを提供する。
具体的には,ユーザの位置プライバシー要件を,表現的かつカスタマイズ可能なテキスト配置ポリシーグラフを用いて形式化する。
第3に、位置露光の検出、ポリシーグラフの修復、およびカスタマイズ可能な厳格な位置プライバシーを備えたプライベートな軌跡リリースをパイプライン化する、プライベートな位置トレースリリースフレームワークを設計する。
論文 参考訳(メタデータ) (2020-05-04T04:25:59Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。