論文の概要: Differentially Private Model-X Knockoffs via Johnson-Lindenstrauss Transform
- arxiv url: http://arxiv.org/abs/2508.04800v1
- Date: Wed, 06 Aug 2025 18:16:53 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-08-08 18:59:39.615301
- Title: Differentially Private Model-X Knockoffs via Johnson-Lindenstrauss Transform
- Title(参考訳): Johnson-Lindenstrauss変換による微分プライベートモデルXノックオフ
- Authors: Yuxuan Tao, Adel Javanmard,
- Abstract要約: 本稿では,高次元制御変数選択のための新しい民営化フレームワークを提案する。
当社のフレームワークは,差分プライバシー制約下での厳格なFDR(False Discovery Rate)制御を可能にする。
この作業は、ノックオフベースのFDRコントロールとプライベートデータリリースという、2つの重要なパラダイムを橋渡しする。
- 参考スコア(独自算出の注目度): 3.5297361401370044
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We introduce a novel privatization framework for high-dimensional controlled variable selection. Our framework enables rigorous False Discovery Rate (FDR) control under differential privacy constraints. While the Model-X knockoff procedure provides FDR guarantees by constructing provably exchangeable ``negative control" features, existing privacy mechanisms like Laplace or Gaussian noise injection disrupt its core exchangeability conditions. Our key innovation lies in privatizing the data knockoff matrix through the Gaussian Johnson-Lindenstrauss Transformation (JLT), a dimension reduction technique that simultaneously preserves covariate relationships through approximate isometry for $(\epsilon,\delta)$-differential privacy. We theoretically characterize both FDR and the power of the proposed private variable selection procedure, in an asymptotic regime. Our theoretical analysis characterizes the role of different factors, such as the JLT's dimension reduction ratio, signal-to-noise ratio, differential privacy parameters, sample size and feature dimension, in shaping the privacy-power trade-off. Our analysis is based on a novel `debiasing technique' for high-dimensional private knockoff procedure. We further establish sufficient conditions under which the power of the proposed procedure converges to one. This work bridges two critical paradigms -- knockoff-based FDR control and private data release -- enabling reliable variable selection in sensitive domains. Our analysis demonstrates that structural privacy preservation through random projections outperforms the classical noise addition mechanism, maintaining statistical power even under strict privacy budgets.
- Abstract(参考訳): 本稿では,高次元制御変数選択のための新しい民営化フレームワークを提案する。
当社のフレームワークは,差分プライバシー制約下での厳格なFDR(False Discovery Rate)制御を可能にする。
Model-Xのノックオフプロシージャは、証明可能な"負の制御"機能を構築することでFDRを保証するが、LaplaceやGaussianのノイズインジェクションのような既存のプライバシメカニズムは、その中核的な交換性条件を妨害する。
キーとなるイノベーションは、ガウスのJohnson-Lindenstrauss Transformation(JLT)を通じてデータノックオフマトリックスを民営化することです。
我々は、FDRと提案したプライベート変数選択手順のパワーの両方を漸近的な状態において理論的に特徴づける。
我々は,JLTの次元減少率,信号対雑音比,差分プライバシーパラメータ,サンプルサイズ,特徴量といった要因が,プライバシ・パワーのトレードオフを形成する上で果たす役割を特徴付ける。
提案手法は,高次元私的ノックオフ法のための新しい「脱バイアス法」に基づく。
さらに,提案手法のパワーが1つに収束する十分な条件を確立する。
この作業は、2つの重要なパラダイム -- ノックオフベースのFDRコントロールとプライベートデータリリース -- をブリッジし、センシティブなドメインにおける信頼性の高い変数選択を可能にします。
分析の結果、ランダムな予測による構造的プライバシー保護は、厳密なプライバシー予算の下でも統計的パワーを維持しながら、古典的なノイズ付加機構より優れていることが示された。
関連論文リスト
- ImprovDML: Improved Trade-off in Private Byzantine-Resilient Distributed Machine Learning [22.85986751447643]
一般的な戦略は、Byzantine-Resilientアグリゲーションルールと差分プライバシーメカニズムの統合である。
そこで我々は,プライバシ保護を同時に確保しつつ,モデルの精度を向上する ImprovDML を提案する。
モデル精度と差分プライバシーの間のトレードオフを改善することを実証する。
論文 参考訳(メタデータ) (2025-06-18T06:53:52Z) - Knockoffs Inference under Privacy Constraints [7.615990547453691]
差分プライバシーパラダイム内でのノックオフ推論のための包括的フレームワークを提案する。
提案手法は,元のモデル-Xのノックオフ手順に係わる正確なFDR制御を保ちながら,堅牢なプライバシ保護を保証する。
論文 参考訳(メタデータ) (2025-06-11T13:06:21Z) - Differentially Private Random Feature Model [52.468511541184895]
プライバシを保存するカーネルマシンに対して,差分的にプライベートな特徴モデルを作成する。
本手法は,プライバシを保護し,一般化誤差を導出する。
論文 参考訳(メタデータ) (2024-12-06T05:31:08Z) - Private Language Models via Truncated Laplacian Mechanism [18.77713904999236]
本稿では,高次元トラカート型ラプラシアン機構と呼ばれる新しいプライベート埋め込み手法を提案する。
提案手法は,従来のプライベート単語埋め込み法に比べて分散度が低いことを示す。
注目すべきは、高いプライバシー体制であっても、私たちのアプローチは、プライベートでないシナリオに比べて、実用性がわずかに低下することです。
論文 参考訳(メタデータ) (2024-10-10T15:25:02Z) - Convergent Differential Privacy Analysis for General Federated Learning: the $f$-DP Perspective [57.35402286842029]
フェデレートラーニング(Federated Learning, FL)は、ローカルプライバシを重視した効率的な協調トレーニングパラダイムである。
ディファレンシャルプライバシ(DP)は、私的保護の信頼性を捕捉し、保証するための古典的なアプローチである。
論文 参考訳(メタデータ) (2024-08-28T08:22:21Z) - Bounded and Unbiased Composite Differential Privacy [25.427802467876248]
差分プライバシ(DP)の目的は、隣接する2つのデータベース間で区別できない出力分布を生成することにより、プライバシを保護することである。
既存のソリューションでは、後処理やトランケーション技術を使ってこの問題に対処しようとしている。
本稿では,合成確率密度関数を用いて有界および非偏りの出力を生成する新しい微分プライベート機構を提案する。
論文 参考訳(メタデータ) (2023-11-04T04:43:47Z) - Adaptive False Discovery Rate Control with Privacy Guarantee [1.4213973379473654]
本稿では,プライバシ保証付きユーザ指定レベル$alpha$で,従来のFDRメトリックを正確に制御できる,差分プライベート適応型FDR制御法を提案する。
プライベートでないAdaPTと比較すると、精度の低下は少ないが、計算コストを大幅に削減する。
論文 参考訳(メタデータ) (2023-05-31T01:22:15Z) - Breaking the Communication-Privacy-Accuracy Tradeoff with
$f$-Differential Privacy [51.11280118806893]
サーバが複数のユーザの協調的なデータ分析を,プライバシの懸念と限られた通信能力で調整する,フェデレートされたデータ分析問題を考える。
有限出力空間を有する離散値機構の局所的差分プライバシー保証を$f$-differential privacy (DP) レンズを用いて検討する。
より具体的には、様々な離散的評価機構の厳密な$f$-DP保証を導出することにより、既存の文献を前進させる。
論文 参考訳(メタデータ) (2023-02-19T16:58:53Z) - Stronger Privacy Amplification by Shuffling for R\'enyi and Approximate
Differential Privacy [43.33288245778629]
このモデルにおける重要な結果は、ランダムにランダム化されたデータをランダムにシャッフルすると、差分プライバシー保証が増幅されることである。
このような増幅は、匿名でデータが提供されるシステムにおいて、はるかに強力なプライバシー保証を意味する。
本研究では,理論的にも数値的にも,アートプライバシの増幅状態を改善する。
論文 参考訳(メタデータ) (2022-08-09T08:13:48Z) - Error-based Knockoffs Inference for Controlled Feature Selection [49.99321384855201]
本手法では, ノックオフ特徴量, エラーベース特徴重要度統計量, ステップダウン手順を一体化して, エラーベースのノックオフ推定手法を提案する。
提案手法では回帰モデルを指定する必要はなく,理論的保証で特徴選択を処理できる。
論文 参考訳(メタデータ) (2022-03-09T01:55:59Z) - Robustness Threats of Differential Privacy [70.818129585404]
我々は、いくつかの設定で差分プライバシーをトレーニングしたネットワークが、非プライベートバージョンに比べてさらに脆弱であることを実験的に実証した。
本研究では,勾配クリッピングや雑音付加などのニューラルネットワークトレーニングの主成分が,モデルの堅牢性に与える影響について検討する。
論文 参考訳(メタデータ) (2020-12-14T18:59:24Z) - Differentially Private Federated Learning with Laplacian Smoothing [72.85272874099644]
フェデレートラーニングは、ユーザ間でプライベートデータを共有せずに、協調的にモデルを学習することで、データのプライバシを保護することを目的としている。
敵は、リリースしたモデルを攻撃することによって、プライベートトレーニングデータを推測することができる。
差別化プライバシは、トレーニングされたモデルの正確性や実用性を著しく低下させる価格で、このような攻撃に対する統計的保護を提供する。
論文 参考訳(メタデータ) (2020-05-01T04:28:38Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。