論文の概要: Differentially Private Permutation Tests: Applications to Kernel Methods
- arxiv url: http://arxiv.org/abs/2310.19043v1
- Date: Sun, 29 Oct 2023 15:13:36 GMT
- ステータス: 処理完了
- システム内更新日: 2023-10-31 14:51:54.650357
- Title: Differentially Private Permutation Tests: Applications to Kernel Methods
- Title(参考訳): 異なるプライベートな置換テスト:カーネルメソッドへの応用
- Authors: Ilmun Kim and Antonin Schrab
- Abstract要約: 差分プライバシーは、プライバシー保護のための厳格な枠組みとして登場し、学術界と産業界の両方で広く認知されている。
本稿では,差分プライベートな置換テストを導入することにより,仮説テストの文脈における懸念を軽減することを目的とする。
提案フレームワークは、従来の非プライベートな置換試験をプライベートな設定に拡張し、有限サンプルの妥当性と差分プライバシーの両方を厳密な方法で維持する。
- 参考スコア(独自算出の注目度): 7.596498528060537
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Recent years have witnessed growing concerns about the privacy of sensitive
data. In response to these concerns, differential privacy has emerged as a
rigorous framework for privacy protection, gaining widespread recognition in
both academic and industrial circles. While substantial progress has been made
in private data analysis, existing methods often suffer from impracticality or
a significant loss of statistical efficiency. This paper aims to alleviate
these concerns in the context of hypothesis testing by introducing
differentially private permutation tests. The proposed framework extends
classical non-private permutation tests to private settings, maintaining both
finite-sample validity and differential privacy in a rigorous manner. The power
of the proposed test depends on the choice of a test statistic, and we
establish general conditions for consistency and non-asymptotic uniform power.
To demonstrate the utility and practicality of our framework, we focus on
reproducing kernel-based test statistics and introduce differentially private
kernel tests for two-sample and independence testing: dpMMD and dpHSIC. The
proposed kernel tests are straightforward to implement, applicable to various
types of data, and attain minimax optimal power across different privacy
regimes. Our empirical evaluations further highlight their competitive power
under various synthetic and real-world scenarios, emphasizing their practical
value. The code is publicly available to facilitate the implementation of our
framework.
- Abstract(参考訳): 近年、機密データのプライバシーに関する懸念が高まっている。
これらの懸念に応えて、差分プライバシーはプライバシー保護の厳格な枠組みとして浮上し、学術界と産業界の両方で広く認識されるようになった。
個人データ分析においてかなりの進歩があったが、既存の手法はしばしば非現実性や統計的効率の著しい損失に悩まされる。
本稿では,これらの懸念を仮説テストの文脈で緩和し,微分プライベートな置換テストを導入することを目的とする。
提案フレームワークは、従来の非プライベートな置換試験をプライベートな設定に拡張し、有限サンプルの妥当性と差分プライバシーの両方を厳密な方法で維持する。
提案するテストのパワーは,テスト統計の選択に依存し,一貫性と非漸近的一様パワーの一般的な条件を確立する。
本フレームワークの有用性と実用性を示すため,カーネルベースのテスト統計を再現することに注力し,dpMMDとdpHSICという2サンプル独立テストのための差分プライベートカーネルテストを導入する。
提案されたカーネルテストは、実装が簡単で、さまざまな種類のデータに適用でき、異なるプライバシレシで最小限の電力を得ることができる。
私たちの経験的評価は、様々な合成および実世界のシナリオ下での競争力をさらに強調し、実用的価値を強調します。
フレームワークの実装を容易にするために、コードは公開されています。
関連論文リスト
- Minimax Optimal Two-Sample Testing under Local Differential Privacy [3.3317825075368908]
ローカルディファレンシャルプライバシ(LDP)の下でのプライベート2サンプルテストにおけるプライバシと統計ユーティリティのトレードオフについて検討する。
本稿では,Laplace,離散Laplace,GoogleのRAPPORなど,実用的なプライバシメカニズムを用いたプライベートな置換テストを紹介する。
我々は,ビンニングによる連続データの研究を行い,その一様分離率をH"olderとBesovの滑らか度クラスよりもLDPで検討した。
論文 参考訳(メタデータ) (2024-11-13T22:44:25Z) - Masked Differential Privacy [64.32494202656801]
本稿では,差分プライバシーを適用した機密領域を制御できる「マスク型差分プライバシー(DP)」という効果的なアプローチを提案する。
提案手法はデータに基づいて選択的に動作し,DPアプリケーションや差分プライバシーをデータサンプル内の他のプライバシー技術と組み合わせることなく,非感性時間領域を定義できる。
論文 参考訳(メタデータ) (2024-10-22T15:22:53Z) - A Statistical Viewpoint on Differential Privacy: Hypothesis Testing, Representation and Blackwell's Theorem [30.365274034429508]
我々は、差分プライバシーはテクストプア統計概念とみなすことができると論じる。
$f$-differential privacyは、データ分析と機械学習のプライバシー境界を分析するための統合フレームワークである。
論文 参考訳(メタデータ) (2024-09-14T23:47:22Z) - Robust Kernel Hypothesis Testing under Data Corruption [6.430258446597413]
データ破損下での頑健な置換テストを構築するための2つの一般的な方法を提案する。
最小限の条件下での力の一貫性を証明する。
これは、潜在的な敵攻撃を伴う現実世界のアプリケーションに対する仮説テストの実践的な展開に寄与する。
論文 参考訳(メタデータ) (2024-05-30T10:23:16Z) - TernaryVote: Differentially Private, Communication Efficient, and
Byzantine Resilient Distributed Optimization on Heterogeneous Data [50.797729676285876]
本稿では, 3次圧縮機と多数決機構を組み合わせて, 差分プライバシー, 勾配圧縮, ビザンチンレジリエンスを同時に実現するternaryVoteを提案する。
提案アルゴリズムのF差分プライバシー(DP)とビザンチンレジリエンスのレンズによるプライバシー保証を理論的に定量化する。
論文 参考訳(メタデータ) (2024-02-16T16:41:14Z) - Differentially private Bayesian tests [1.3127313002783776]
本稿では,原理的データ生成機構の下で自然に発生する,偏微分プライベートなベイズ仮説テストフレームワークを提案する。
広く使われているテスト統計に基づいて、偏ってプライベートなベイズ因子に着目し、完全なデータ生成機構をモデル化する必要性を回避する。
論文 参考訳(メタデータ) (2024-01-27T21:07:11Z) - Tight Auditing of Differentially Private Machine Learning [77.38590306275877]
プライベート機械学習では、既存の監査メカニズムは厳格である。
彼らは不確実な最悪の仮定の下でのみ厳密な見積もりを行う。
我々は、自然(逆向きではない)データセットの厳密なプライバシー推定を得られる改善された監査スキームを設計する。
論文 参考訳(メタデータ) (2023-02-15T21:40:33Z) - Enforcing Privacy in Distributed Learning with Performance Guarantees [57.14673504239551]
分散学習と最適化戦略の民営化について検討する。
グラフ構造に対して十分に調整されていないため, 一般的な加法的乱乱摂動方式は性能を低下させることを示す。
論文 参考訳(メタデータ) (2023-01-16T13:03:27Z) - Sequential Kernelized Independence Testing [101.22966794822084]
我々は、カーネル化依存度にインスパイアされたシーケンシャルなカーネル化独立試験を設計する。
シミュレーションデータと実データの両方にアプローチのパワーを実証する。
論文 参考訳(メタデータ) (2022-12-14T18:08:42Z) - Private Sequential Hypothesis Testing for Statisticians: Privacy, Error
Rates, and Sample Size [24.149533870085175]
我々は、Renyi差分プライバシーとして知られる、差分プライバシーのわずかな変種の下で、シーケンシャル仮説テスト問題を研究する。
我々は,Wald's Sequential Probability Ratio Test (SPRT)に基づく新たなプライベートアルゴリズムを提案する。
論文 参考訳(メタデータ) (2022-04-10T04:15:50Z) - Debugging Differential Privacy: A Case Study for Privacy Auditing [60.87570714269048]
監査は、微分プライベートなスキームの欠陥を見つけるためにも利用できることを示す。
このケーススタディでは、微分プライベートなディープラーニングアルゴリズムの最近のオープンソース実装を監査し、99.9999999999%の信頼を得て、この実装が要求される差分プライバシー保証を満たさないことを発見した。
論文 参考訳(メタデータ) (2022-02-24T17:31:08Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。