論文の概要: Differentially Private Algorithms for Statistical Verification of
Cyber-Physical Systems
- arxiv url: http://arxiv.org/abs/2004.00275v2
- Date: Mon, 27 Jun 2022 23:01:35 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-17 18:18:34.405448
- Title: Differentially Private Algorithms for Statistical Verification of
Cyber-Physical Systems
- Title(参考訳): サイバー物理システムの統計的検証のための微分プライベートアルゴリズム
- Authors: Yu Wang, Hussein Sibai, Mark Yen, Sayan Mitra, Geir E. Dullerud
- Abstract要約: 抽出されたサンプルの数を明らかにすることは、プライバシーを侵害する可能性があることを示す。
予測差分プライバシーと呼ばれる新しい差分プライバシーの概念を提案する。
- 参考スコア(独自算出の注目度): 5.987774571079633
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Statistical model checking is a class of sequential algorithms that can
verify specifications of interest on an ensemble of cyber-physical systems
(e.g., whether 99% of cars from a batch meet a requirement on their energy
efficiency). These algorithms infer the probability that given specifications
are satisfied by the systems with provable statistical guarantees by drawing
sufficient numbers of independent and identically distributed samples. During
the process of statistical model checking, the values of the samples (e.g., a
user's car energy efficiency) may be inferred by intruders, causing privacy
concerns in consumer-level applications (e.g., automobiles and medical
devices). This paper addresses the privacy of statistical model checking
algorithms from the point of view of differential privacy. These algorithms are
sequential, drawing samples until a condition on their values is met. We show
that revealing the number of the samples drawn can violate privacy. We also
show that the standard exponential mechanism that randomizes the output of an
algorithm to achieve differential privacy fails to do so in the context of
sequential algorithms. Instead, we relax the conservative requirement in
differential privacy that the sensitivity of the output of the algorithm should
be bounded to any perturbation for any data set. We propose a new notion of
differential privacy which we call expected differential privacy. Then, we
propose a novel expected sensitivity analysis for the sequential algorithm and
proposed a corresponding exponential mechanism that randomizes the termination
time to achieve the expected differential privacy. We apply the proposed
mechanism to statistical model checking algorithms to preserve the privacy of
the samples they draw. The utility of the proposed algorithm is demonstrated in
a case study.
- Abstract(参考訳): 統計モデルチェック(英: statistics model check)は、サイバー物理システムのアンサンブル(例えば、バッチの99%の車が彼らのエネルギー効率の要求を満たすかどうか)の仕様を検証できるシーケンシャルアルゴリズムのクラスである。
これらのアルゴリズムは、与えられた仕様が証明可能な統計的保証を持つシステムによって満たされる確率を、十分な数の独立および同一の分散サンプルを描画することによって推測する。
統計モデル検査の過程では、サンプル(例えば、車のエネルギー効率)の値は侵入者によって推測され、消費者レベルのアプリケーション(例えば、自動車や医療機器)におけるプライバシーの懸念を引き起こす。
本稿では,微分プライバシーの観点から統計モデル検査アルゴリズムのプライバシーについて述べる。
これらのアルゴリズムはシーケンシャルであり、値の条件が満たされるまでサンプルを描画する。
得られたサンプルの数を明らかにすることは、プライバシーを侵害する可能性がある。
また,差分プライバシーを実現するアルゴリズムの出力をランダム化する標準的な指数関数機構は,逐次アルゴリズムの文脈では実現できないことを示した。
代わりに、差分プライバシーにおける保守的な要件を緩和し、アルゴリズムの出力の感度は任意のデータセットの摂動に拘束されるべきである。
予測差分プライバシーと呼ばれる新しい差分プライバシーの概念を提案する。
そこで本研究では,シーケンシャルアルゴリズムの新しい期待感度解析法を提案し,その終了時間をランダム化し,期待する差分プライバシーを実現する指数関数的メカニズムを提案する。
提案手法を統計モデル検査アルゴリズムに適用し,抽出したサンプルのプライバシを保護する。
提案アルゴリズムの実用性はケーススタディで実証された。
関連論文リスト
- CURATE: Scaling-up Differentially Private Causal Graph Discovery [8.471466670802817]
因果グラフ発見(CGD)におけるユーザのプライバシを確保するために、差分プライバシー(DP)が採用されている。
CURATEは、適応的なプライバシー予算を持つDP-CGDフレームワークである。
CURATEは従来のDP-CGDアルゴリズムに比べてプライバシー保護の少ない高効率を実現していることを示す。
論文 参考訳(メタデータ) (2024-09-27T18:00:38Z) - Conditional Density Estimations from Privacy-Protected Data [0.0]
プライバシ保護されたデータセットからのシミュレーションに基づく推論手法を提案する。
本稿では,感染性疾患モデルと通常の線形回帰モデルに基づく個別時系列データについて述べる。
論文 参考訳(メタデータ) (2023-10-19T14:34:17Z) - Tight Auditing of Differentially Private Machine Learning [77.38590306275877]
プライベート機械学習では、既存の監査メカニズムは厳格である。
彼らは不確実な最悪の仮定の下でのみ厳密な見積もりを行う。
我々は、自然(逆向きではない)データセットの厳密なプライバシー推定を得られる改善された監査スキームを設計する。
論文 参考訳(メタデータ) (2023-02-15T21:40:33Z) - Learning to Bound Counterfactual Inference in Structural Causal Models
from Observational and Randomised Data [64.96984404868411]
我々は、従来のEMベースのアルゴリズムを拡張するための全体的なデータの特徴付けを導出する。
新しいアルゴリズムは、そのような混合データソースからモデルパラメータの(不特定性)領域を近似することを学ぶ。
反実的な結果に間隔近似を与え、それが特定可能な場合の点に崩壊する。
論文 参考訳(メタデータ) (2022-12-06T12:42:11Z) - Privacy-preserving Non-negative Matrix Factorization with Outliers [2.84279467589473]
プライバシー保護フレームワークにおける非負行列分解アルゴリズムの開発に焦点をあてる。
プライベートデータを操作可能な非負行列分解のための新しいプライバシ保存アルゴリズムを提案する。
提案するフレームワークの性能を6つの実データ集合で示す。
論文 参考訳(メタデータ) (2022-11-02T19:42:18Z) - Privacy Induces Robustness: Information-Computation Gaps and Sparse Mean
Estimation [8.9598796481325]
本稿では, アルゴリズムと計算複雑性の両面において, 異なる統計問題に対する観測結果について検討する。
プライベートスパース平均推定のための情報計算ギャップを確立する。
また、プライバシーによって引き起こされる情報計算のギャップを、いくつかの統計や学習問題に対して証明する。
論文 参考訳(メタデータ) (2022-11-01T20:03:41Z) - Differentially Private Stochastic Gradient Descent with Low-Noise [49.981789906200035]
現代の機械学習アルゴリズムは、データからきめ細かい情報を抽出して正確な予測を提供することを目的としており、プライバシー保護の目標と矛盾することが多い。
本稿では、プライバシを保ちながら優れたパフォーマンスを確保するために、プライバシを保存する機械学習アルゴリズムを開発することの実践的および理論的重要性について論じる。
論文 参考訳(メタデータ) (2022-09-09T08:54:13Z) - Efficient Mean Estimation with Pure Differential Privacy via a
Sum-of-Squares Exponential Mechanism [16.996435043565594]
純微分プライバシーを受ける独立サンプルの共分散で$d$正確率分布の平均を推定するアルゴリズムを初めて与える。
我々の主な手法は、強力なSum of Squares法(SoS)を用いて微分プライベートアルゴリズムを設計する新しいアプローチである。
論文 参考訳(メタデータ) (2021-11-25T09:31:15Z) - Sensitivity analysis in differentially private machine learning using
hybrid automatic differentiation [54.88777449903538]
感性分析のための新しいテクスチブリド自動識別システム(AD)を導入する。
これにより、ニューラルネットワークをプライベートデータ上でトレーニングするなど、任意の微分可能な関数合成の感度をモデル化できる。
当社のアプローチは,データ処理の設定において,プライバシ損失に関する原則的推論を可能にする。
論文 参考訳(メタデータ) (2021-07-09T07:19:23Z) - Private Prediction Sets [72.75711776601973]
機械学習システムは、個人のプライバシーの確実な定量化と保護を必要とする。
これら2つのデシラタを共同で扱う枠組みを提案する。
本手法を大規模コンピュータビジョンデータセット上で評価する。
論文 参考訳(メタデータ) (2021-02-11T18:59:11Z) - Privacy Preserving Recalibration under Domain Shift [119.21243107946555]
本稿では,差分プライバシー制約下での校正問題の性質を抽象化する枠組みを提案する。
また、新しいリカレーションアルゴリズム、精度温度スケーリングを設計し、プライベートデータセットの事前処理より優れています。
論文 参考訳(メタデータ) (2020-08-21T18:43:37Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。