論文の概要: Knockoffs Inference under Privacy Constraints
- arxiv url: http://arxiv.org/abs/2506.09690v1
- Date: Wed, 11 Jun 2025 13:06:21 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-06-13 06:35:02.982573
- Title: Knockoffs Inference under Privacy Constraints
- Title(参考訳): Knockoff:プライバシ制約下での推論
- Authors: Zhanrui Cai, Yingying Fan, Lan Gao,
- Abstract要約: 差分プライバシーパラダイム内でのノックオフ推論のための包括的フレームワークを提案する。
提案手法は,元のモデル-Xのノックオフ手順に係わる正確なFDR制御を保ちながら,堅牢なプライバシ保護を保証する。
- 参考スコア(独自算出の注目度): 7.615990547453691
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Model-X knockoff framework offers a model-free variable selection method that ensures finite sample false discovery rate (FDR) control. However, the complexity of generating knockoff variables, coupled with the model-free assumption, presents significant challenges for protecting data privacy in this context. In this paper, we propose a comprehensive framework for knockoff inference within the differential privacy paradigm. Our proposed method guarantees robust privacy protection while preserving the exact FDR control entailed by the original model-X knockoff procedure. We further conduct power analysis and establish sufficient conditions under which the noise added for privacy preservation does not asymptotically compromise power. Through various applications, we demonstrate that the differential privacy knockoff (DP-knockoff) method can be effectively utilized to safeguard privacy during variable selection with FDR control in both low and high dimensional settings.
- Abstract(参考訳): Model-Xのノックオフフレームワークは、有限サンプル偽発見率(FDR)制御を保証するモデルフリーな変数選択方法を提供する。
しかし、ノックオフ変数を生成する複雑さは、モデルなしの仮定と相まって、このコンテキストでデータのプライバシを保護する上で大きな課題となる。
本稿では,差分プライバシーパラダイムにおけるノックオフ推論のための包括的フレームワークを提案する。
提案手法は,元のモデル-Xのノックオフ手順に係わる正確なFDR制御を保ちながら,堅牢なプライバシ保護を保証する。
我々はさらに電力分析を行い、プライバシー保護のために付加されるノイズが漸近的に電力を損なわない十分な条件を確立する。
各種アプリケーションを通じて、低次元および高次元の両方でFDR制御による可変選択時のプライバシー保護に、差分プライバシノックオフ(DP-knockoff)法を効果的に活用できることを実証する。
関連論文リスト
- Privacy-Preserving Dynamic Assortment Selection [4.399892832075127]
本稿では,マルチノミアルロジット(MNL)バンドレートモデルを用いて,プライバシ保護のための動的アソシエーション選択のための新しいフレームワークを提案する。
弊社のアプローチでは、ノイズをユーザユーティリティ推定に統合し、探索とエクスプロイトのバランスを保ちつつ、堅牢なプライバシー保護を確保している。
論文 参考訳(メタデータ) (2024-10-29T19:28:01Z) - Enhancing Feature-Specific Data Protection via Bayesian Coordinate Differential Privacy [55.357715095623554]
ローカル微分プライバシー(LDP)は、ユーザーが外部の関係者を信頼することなく、強力なプライバシー保証を提供する。
本稿では,ベイジアン・フレームワークであるベイジアン・コーディネート・ディファレンシャル・プライバシ(BCDP)を提案する。
論文 参考訳(メタデータ) (2024-10-24T03:39:55Z) - Adaptive False Discovery Rate Control with Privacy Guarantee [1.4213973379473654]
本稿では,プライバシ保証付きユーザ指定レベル$alpha$で,従来のFDRメトリックを正確に制御できる,差分プライベート適応型FDR制御法を提案する。
プライベートでないAdaPTと比較すると、精度の低下は少ないが、計算コストを大幅に削減する。
論文 参考訳(メタデータ) (2023-05-31T01:22:15Z) - A Randomized Approach for Tight Privacy Accounting [63.67296945525791]
推定検証リリース(EVR)と呼ばれる新しい差分プライバシーパラダイムを提案する。
EVRパラダイムは、まずメカニズムのプライバシパラメータを推定し、その保証を満たすかどうかを確認し、最後にクエリ出力を解放する。
我々の実証的な評価は、新たに提案されたEVRパラダイムが、プライバシ保護機械学習のユーティリティプライバシトレードオフを改善することを示している。
論文 参考訳(メタデータ) (2023-04-17T00:38:01Z) - Rethinking Disclosure Prevention with Pointwise Maximal Leakage [36.3895452861944]
本稿では,秘密の$X$の低エントロピー機能の価値を開示し,実用性を実現するユーティリティとプライバシの一般モデルを提案する。
我々は、大衆の意見に反して、有意義な推論によるプライバシー保証を提供することを証明している。
PMLベースのプライバシは互換性があることを示し、差分プライバシーのような既存の概念に対する洞察を提供する。
論文 参考訳(メタデータ) (2023-03-14T10:47:40Z) - Breaking the Communication-Privacy-Accuracy Tradeoff with
$f$-Differential Privacy [51.11280118806893]
サーバが複数のユーザの協調的なデータ分析を,プライバシの懸念と限られた通信能力で調整する,フェデレートされたデータ分析問題を考える。
有限出力空間を有する離散値機構の局所的差分プライバシー保証を$f$-differential privacy (DP) レンズを用いて検討する。
より具体的には、様々な離散的評価機構の厳密な$f$-DP保証を導出することにより、既存の文献を前進させる。
論文 参考訳(メタデータ) (2023-02-19T16:58:53Z) - Error-based Knockoffs Inference for Controlled Feature Selection [49.99321384855201]
本手法では, ノックオフ特徴量, エラーベース特徴重要度統計量, ステップダウン手順を一体化して, エラーベースのノックオフ推定手法を提案する。
提案手法では回帰モデルを指定する必要はなく,理論的保証で特徴選択を処理できる。
論文 参考訳(メタデータ) (2022-03-09T01:55:59Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。