論文の概要: Formalization of Differential Privacy in Isabelle/HOL
- arxiv url: http://arxiv.org/abs/2410.15386v1
- Date: Sun, 20 Oct 2024 13:06:13 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-10-22 13:15:24.493299
- Title: Formalization of Differential Privacy in Isabelle/HOL
- Title(参考訳): Isabelle/HOLにおける微分プライバシーの形式化
- Authors: Tetsuya Sato, Yasuhiko Minamide,
- Abstract要約: 本稿では,Isabelle/HOLライブラリを提案する。
我々の知る限り、これは連続確率分布をサポートする微分プライバシーの最初の形式化である。
- 参考スコア(独自算出の注目度): 0.16574413179773761
- License:
- Abstract: Differential privacy is a statistical definition of privacy that has attracted the interest of both academia and industry. Its formulations are easy to understand, but the differential privacy of databases is complicated to determine. One of the reasons for this is that small changes in database programs can break their differential privacy. Therefore, formal verification of differential privacy has been studied for over a decade. In this paper, we propose an Isabelle/HOL library for formalizing differential privacy in a general setting. To our knowledge, it is the first formalization of differential privacy that supports continuous probability distributions. First, we formalize the standard definition of differential privacy and its basic properties. Second, we formalize the Laplace mechanism and its differential privacy. Finally, we formalize the differential privacy of the report noisy max mechanism.
- Abstract(参考訳): 差別的プライバシーは、学界と産業の両方の関心を惹きつけた統計的なプライバシーの定義である。
その定式化は理解しやすいが、データベースの差分プライバシーは決定が難しい。
この理由の1つは、データベースプログラムの小さな変更が、その差分プライバシーを損なう可能性があることである。
したがって、差分プライバシーの正式な検証は10年以上にわたって研究されてきた。
本稿では,Isabelle/HOLライブラリを提案する。
我々の知る限り、これは連続確率分布をサポートする微分プライバシーの最初の形式化である。
まず、差分プライバシーの標準定義とその基本特性を定式化する。
次に、Laplaceメカニズムとその差分プライバシーを定式化する。
最後に,レポートノイズ極大機構の差分プライバシーを定式化する。
関連論文リスト
- Adaptive Privacy Composition for Accuracy-first Mechanisms [55.53725113597539]
ノイズ低減機構はますます正確な答えを生み出す。
アナリストは、公表された最も騒々しい、あるいは最も正確な回答のプライバシー費用のみを支払う。
ポスト前のプライベートメカニズムがどのように構成されるかは、まだ研究されていない。
我々は、分析者が微分プライベートとポストプライベートのメカニズムを適応的に切り替えることのできるプライバシーフィルタを開発した。
論文 参考訳(メタデータ) (2023-06-24T00:33:34Z) - On Differentially Private Online Predictions [74.01773626153098]
オンラインプロセスを扱うために,共同微分プライバシーのインタラクティブなバリエーションを導入する。
グループプライバシ、コンポジション、ポストプロセッシングの(適切なバリエーション)を満たすことを実証する。
次に、オンライン分類の基本設定において、インタラクティブな共同プライバシーのコストについて検討する。
論文 参考訳(メタデータ) (2023-02-27T19:18:01Z) - How Do Input Attributes Impact the Privacy Loss in Differential Privacy? [55.492422758737575]
DPニューラルネットワークにおけるオブジェクトごとの規範と個人のプライバシ損失との関係について検討する。
プライバシ・ロス・インプット・サセプティビリティ(PLIS)と呼ばれる新しい指標を導入し、被験者のプライバシ・ロスを入力属性に適応させることを可能にした。
論文 参考訳(メタデータ) (2022-11-18T11:39:03Z) - Momentum Gradient Descent Federated Learning with Local Differential
Privacy [10.60240656423935]
ビッグデータの時代、個人情報のプライバシーはより顕著になった。
本稿では,機械学習モデルの性能向上のために,フェデレーション学習と局所差分プライバシーをモーメント勾配勾配下で統合することを提案する。
論文 参考訳(メタデータ) (2022-09-28T13:30:38Z) - Algorithms with More Granular Differential Privacy Guarantees [65.3684804101664]
我々は、属性ごとのプライバシー保証を定量化できる部分微分プライバシー(DP)について検討する。
本研究では,複数の基本データ分析および学習タスクについて検討し,属性ごとのプライバシパラメータが個人全体のプライバシーパラメータよりも小さい設計アルゴリズムについて検討する。
論文 参考訳(メタデータ) (2022-09-08T22:43:50Z) - Debugging Differential Privacy: A Case Study for Privacy Auditing [60.87570714269048]
監査は、微分プライベートなスキームの欠陥を見つけるためにも利用できることを示す。
このケーススタディでは、微分プライベートなディープラーニングアルゴリズムの最近のオープンソース実装を監査し、99.9999999999%の信頼を得て、この実装が要求される差分プライバシー保証を満たさないことを発見した。
論文 参考訳(メタデータ) (2022-02-24T17:31:08Z) - When differential privacy meets NLP: The devil is in the detail [3.5503507997334958]
テキストの書き直しのための微分プライベート自動エンコーダであるADePTの形式解析を行う。
以上の結果から,ADePTは差分プライベートではないことが判明した。
論文 参考訳(メタデータ) (2021-09-07T16:12:25Z) - Private Reinforcement Learning with PAC and Regret Guarantees [69.4202374491817]
エピソード強化学習(RL)のためのプライバシー保護探索ポリシーを設計する。
まず、共同微分プライバシー(JDP)の概念を用いた有意義なプライバシー定式化を提供する。
そこで我々は,強いPACと後悔境界を同時に達成し,JDP保証を享受する,プライベートな楽観主義に基づく学習アルゴリズムを開発した。
論文 参考訳(メタデータ) (2020-09-18T20:18:35Z) - Auditing Differentially Private Machine Learning: How Private is Private
SGD? [16.812900569416062]
我々は、差分的プライベートSGDが、最先端の分析によって保証されているものよりも、実際に優れたプライバシーを提供するかどうかを調査する。
われわれは、新しいデータ中毒攻撃を通じて、現実的なプライバシー攻撃に対応している。
論文 参考訳(メタデータ) (2020-06-13T20:00:18Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。