論文の概要: Data-driven Regularized Inference Privacy
- arxiv url: http://arxiv.org/abs/2010.12346v1
- Date: Sat, 10 Oct 2020 08:42:59 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-08 23:37:04.365206
- Title: Data-driven Regularized Inference Privacy
- Title(参考訳): データ駆動規則化推論プライバシ
- Authors: Chong Xiao Wang and Wee Peng Tay
- Abstract要約: データを衛生化するためのデータ駆動推論プライバシ保護フレームワークを提案する。
我々は変分法に基づく推論プライバシ・フレームワークを開発する。
プライバシー基準を推定するための実証的手法を提案する。
- 参考スコア(独自算出の注目度): 33.71757542373714
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Data is used widely by service providers as input to inference systems to
perform decision making for authorized tasks. The raw data however allows a
service provider to infer other sensitive information it has not been
authorized for. We propose a data-driven inference privacy preserving framework
to sanitize data so as to prevent leakage of sensitive information that is
present in the raw data, while ensuring that the sanitized data is still
compatible with the service provider's legacy inference system. We develop an
inference privacy framework based on the variational method and include maximum
mean discrepancy and domain adaption as techniques to regularize the domain of
the sanitized data to ensure its legacy compatibility. However, the variational
method leads to weak privacy in cases where the underlying data distribution is
hard to approximate. It may also face difficulties when handling continuous
private variables. To overcome this, we propose an alternative formulation of
the privacy metric using maximal correlation and we present empirical methods
to estimate it. Finally, we develop a deep learning model as an example of the
proposed inference privacy framework. Numerical experiments verify the
feasibility of our approach.
- Abstract(参考訳): データは、認可されたタスクの意思決定を行うための推論システムへの入力として、サービスプロバイダによって広く使用される。
しかし生データは、サービスプロバイダが許可されていない他の機密情報を推測することを可能にする。
本稿では,生データに存在する機密情報の漏えいを防止するとともに,サービスプロバイダのレガシ推論システムとの互換性を確保するために,データをサニタイズするデータ駆動推論プライバシ保護フレームワークを提案する。
我々は,変分法に基づく推論プライバシ・フレームワークを開発し,そのレガシ互換性を確保するため,衛生データのドメインを規則化するためのテクニックとして,平均誤差とドメイン適応を最大化する。
しかし、変動法は、基礎となるデータ分布が近似し難い場合に、プライバシーが弱くなる。
また、連続プライベート変数を扱う際にも困難に直面することがある。
そこで本研究では,最大相関を用いたプライバシメトリックの代替定式化を提案し,それを推定するための経験的手法を提案する。
最後に,提案する推論プライバシフレームワークの例として,ディープラーニングモデルを開発した。
数値実験により本手法の有効性が検証された。
関連論文リスト
- Federated Causal Discovery from Heterogeneous Data [70.31070224690399]
任意の因果モデルと異種データに対応する新しいFCD法を提案する。
これらのアプローチには、データのプライバシを保護するために、生データのプロキシとして要約統計を構築することが含まれる。
提案手法の有効性を示すために, 合成および実データを用いた広範囲な実験を行った。
論文 参考訳(メタデータ) (2024-02-20T18:53:53Z) - Conditional Density Estimations from Privacy-Protected Data [0.0]
プライバシ保護されたデータセットからのシミュレーションに基づく推論手法を提案する。
本稿では,感染性疾患モデルと通常の線形回帰モデルに基づく個別時系列データについて述べる。
論文 参考訳(メタデータ) (2023-10-19T14:34:17Z) - A Unified View of Differentially Private Deep Generative Modeling [60.72161965018005]
プライバシー上の懸念のあるデータには、データアクセスとデータ共有を頻繁に禁止する厳格な規制が伴う。
これらの障害を克服することは、プライバシーに敏感なデータを含む多くの現実世界のアプリケーションシナリオにおいて、技術的進歩の鍵となる。
差分的プライベート(DP)データパブリッシングは、データの衛生化された形式のみを公開する、魅力的なソリューションを提供する。
論文 参考訳(メタデータ) (2023-09-27T14:38:16Z) - Breaking the Communication-Privacy-Accuracy Tradeoff with
$f$-Differential Privacy [51.11280118806893]
サーバが複数のユーザの協調的なデータ分析を,プライバシの懸念と限られた通信能力で調整する,フェデレートされたデータ分析問題を考える。
有限出力空間を有する離散値機構の局所的差分プライバシー保証を$f$-differential privacy (DP) レンズを用いて検討する。
より具体的には、様々な離散的評価機構の厳密な$f$-DP保証を導出することにより、既存の文献を前進させる。
論文 参考訳(メタデータ) (2023-02-19T16:58:53Z) - Private Set Generation with Discriminative Information [63.851085173614]
異なるプライベートなデータ生成は、データプライバシの課題に対する有望な解決策である。
既存のプライベートな生成モデルは、合成サンプルの有用性に苦慮している。
我々は,最先端アプローチのサンプルユーティリティを大幅に改善する,シンプルで効果的な手法を提案する。
論文 参考訳(メタデータ) (2022-11-07T10:02:55Z) - A General Framework for Auditing Differentially Private Machine Learning [27.99806936918949]
本稿では,差分プライベートな学習者によって与えられるプライバシ保証を統計的に評価する枠組みを提案する。
本研究は、微分プライベート機械学習実装のプライバシを実証的に評価する一般的な手法を開発する。
論文 参考訳(メタデータ) (2022-10-16T21:34:18Z) - Distributed Machine Learning and the Semblance of Trust [66.1227776348216]
フェデレートラーニング(FL)により、データ所有者はデータを共有することなく、データガバナンスを維持し、モデルトレーニングをローカルで行うことができる。
FLと関連する技術は、しばしばプライバシー保護と表現される。
この用語が適切でない理由を説明し、プライバシの形式的定義を念頭に設計されていないプロトコルに対する過度な信頼に関連するリスクを概説する。
論文 参考訳(メタデータ) (2021-12-21T08:44:05Z) - Non-parametric Differentially Private Confidence Intervals for the
Median [3.205141100055992]
本稿では,中央値に対する有意な個人的信頼区間を計算するためのいくつかの戦略を提案し,評価する。
また、サンプリングからのエラーと出力の保護からのエラーという2つの不確実性源に対処することが、この不確実性を逐次的に組み込んだ単純なアプローチよりも望ましいことを示す。
論文 参考訳(メタデータ) (2021-06-18T19:45:37Z) - Causally Constrained Data Synthesis for Private Data Release [36.80484740314504]
原データの特定の統計特性を反映した合成データを使用することで、原データのプライバシーが保護される。
以前の作業では、正式なプライバシ保証を提供するために、差分プライベートなデータリリースメカニズムを使用していました。
トレーニングプロセスに因果情報を導入し、上記のトレードオフを好意的に修正することを提案する。
論文 参考訳(メタデータ) (2021-05-27T13:46:57Z) - Robustness Threats of Differential Privacy [70.818129585404]
我々は、いくつかの設定で差分プライバシーをトレーニングしたネットワークが、非プライベートバージョンに比べてさらに脆弱であることを実験的に実証した。
本研究では,勾配クリッピングや雑音付加などのニューラルネットワークトレーニングの主成分が,モデルの堅牢性に与える影響について検討する。
論文 参考訳(メタデータ) (2020-12-14T18:59:24Z) - SPEED: Secure, PrivatE, and Efficient Deep learning [2.283665431721732]
私たちは、強力なプライバシー制約に対処できるディープラーニングフレームワークを導入します。
協調学習、差分プライバシー、同型暗号化に基づいて、提案手法は最先端技術に進化する。
論文 参考訳(メタデータ) (2020-06-16T19:31:52Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。