論文の概要: Differentially Private High-dimensional Variable Selection via Integer Programming
- arxiv url: http://arxiv.org/abs/2510.22062v1
- Date: Fri, 24 Oct 2025 22:57:33 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-28 15:28:14.806682
- Title: Differentially Private High-dimensional Variable Selection via Integer Programming
- Title(参考訳): 整数計画法による微分プライベート高次元変数選択
- Authors: Petros Prastakos, Kayhan Behdin, Rahul Mazumder,
- Abstract要約: スパース変数選択は、情報的特徴の小さなサブセットを選択することにより、解釈可能性と高次元学習を改善する。
混合プログラミングの最近の進歩は、大規模な非プライベートレグレッションの解決を可能にしている。
MIPを向上する2つの新しい偏微分プライベート変数選択を導入する。
- 参考スコア(独自算出の注目度): 21.497279758328872
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Sparse variable selection improves interpretability and generalization in high-dimensional learning by selecting a small subset of informative features. Recent advances in Mixed Integer Programming (MIP) have enabled solving large-scale non-private sparse regression - known as Best Subset Selection (BSS) - with millions of variables in minutes. However, extending these algorithmic advances to the setting of Differential Privacy (DP) has remained largely unexplored. In this paper, we introduce two new pure differentially private estimators for sparse variable selection, levering modern MIP techniques. Our framework is general and applies broadly to problems like sparse regression or classification, and we provide theoretical support recovery guarantees in the case of BSS. Inspired by the exponential mechanism, we develop structured sampling procedures that efficiently explore the non-convex objective landscape, avoiding the exhaustive combinatorial search in the exponential mechanism. We complement our theoretical findings with extensive numerical experiments, using both least squares and hinge loss for our objective function, and demonstrate that our methods achieve state-of-the-art empirical support recovery, outperforming competing algorithms in settings with up to $p=10^4$.
- Abstract(参考訳): スパース変数選択は、情報的特徴の小さなサブセットを選択することにより、高次元学習における解釈可能性と一般化を改善する。
MIP(Mixed Integer Programming)の最近の進歩は、数百万の変数を数分で持つ大規模な非プライベートスパースレグレッション(Best Subset Selection、BSS)の解決を可能にしている。
しかし、これらのアルゴリズムの進歩を微分プライバシ(DP)の設定に拡張することは、ほとんど未検討のままである。
本稿では,分散変数選択のための2つの新しい純粋微分プライベート推定器について紹介する。
本フレームワークは, スパースレグレッションや分類などの問題に対して広く適用されており, BSSの場合の理論的サポート回復保証を提供する。
指数的メカニズムに着想を得て,非凸的対象景観を効率的に探索し,指数的メカニズムにおける包括的組合せ探索を回避する構造的サンプリング手法を開発した。
目的関数として最小二乗法とヒンジ損失法を併用し,提案手法が最先端の実証的サポート回復を達成し,最大$p=10^4$で競合アルゴリズムより優れていることを示す。
関連論文リスト
- MIBoost: A Gradient Boosting Algorithm for Variable Selection After Multiple Imputation [0.0]
実際には、分析は欠落データによって複雑になることが多い。
提案するMIBoostは,命令付きデータセット間で均一な可変選択機構を持つ新しいアルゴリズムである。
論文 参考訳(メタデータ) (2025-07-29T13:42:38Z) - Differentially Private Random Feature Model [47.35176457481132]
プライバシを保存するカーネルマシンに対して,差分的にプライベートな特徴モデルを作成する。
本手法は,プライバシを保護し,一般化誤差を導出する。
論文 参考訳(メタデータ) (2024-12-06T05:31:08Z) - A Stochastic Approach to Bi-Level Optimization for Hyperparameter Optimization and Meta Learning [74.80956524812714]
我々は,現代のディープラーニングにおいて広く普及している一般的なメタ学習問題に対処する。
これらの問題は、しばしばBi-Level Optimizations (BLO)として定式化される。
我々は,与えられたBLO問題を,内部損失関数が滑らかな分布となり,外損失が内部分布に対する期待損失となるようなii最適化に変換することにより,新たな視点を導入する。
論文 参考訳(メタデータ) (2024-10-14T12:10:06Z) - l1-norm regularized l1-norm best-fit lines [3.0963566281269594]
簡単な比率とソート手法を用いた新しいフィッティング法を提案する。
提案アルゴリズムは、O$(n2 m log n)$の最悪の時間複雑性を示し、ある場合にはスパース部分空間に対する大域的最適性を達成する。
論文 参考訳(メタデータ) (2024-02-26T16:30:58Z) - Ensemble Kalman Filtering Meets Gaussian Process SSM for Non-Mean-Field and Online Inference [47.460898983429374]
我々は,非平均場(NMF)変動推定フレームワークにアンサンブルカルマンフィルタ(EnKF)を導入し,潜在状態の後方分布を近似する。
EnKFとGPSSMのこの新しい結婚は、変分分布の学習における広範なパラメータ化の必要性をなくすだけでなく、エビデンスの下限(ELBO)の解釈可能でクローズドな近似を可能にする。
得られたEnKF支援オンラインアルゴリズムは、データ適合精度を確保しつつ、モデル正規化を組み込んで過度適合を緩和し、目的関数を具現化する。
論文 参考訳(メタデータ) (2023-12-10T15:22:30Z) - Factorization of Multi-Agent Sampling-Based Motion Planning [72.42734061131569]
現代のロボティクスは、共有環境内で複数のエンボディエージェントを動作させることが多い。
標準的なサンプリングベースのアルゴリズムは、ロボットの関節空間における解の探索に使用できる。
我々は、因子化の概念をサンプリングベースアルゴリズムに統合し、既存の手法への最小限の変更しか必要としない。
本稿では, PRM* のサンプル複雑性の観点から解析的ゲインを導出し, RRG の実証結果を示す。
論文 参考訳(メタデータ) (2023-04-01T15:50:18Z) - Distributed Dynamic Safe Screening Algorithms for Sparse Regularization [73.85961005970222]
本稿では,分散動的安全スクリーニング(DDSS)手法を提案し,共有メモリアーキテクチャと分散メモリアーキテクチャにそれぞれ適用する。
提案手法は, 線形収束率を低次複雑度で達成し, 有限個の繰り返しにおいてほとんどすべての不活性な特徴をほぼ確実に除去できることを示す。
論文 参考訳(メタデータ) (2022-04-23T02:45:55Z) - Stochastic Gradient Descent-Ascent: Unified Theory and New Efficient
Methods [73.35353358543507]
SGDA(Gradient Descent-Ascent)は、min-max最適化と変分不等式問題(VIP)を解くための最も顕著なアルゴリズムの1つである。
本稿では,多種多様な降下指数法を網羅した統合収束解析を提案する。
本研究では,新しい分散化手法 (L-SVRGDA) や,新しい分散圧縮方式 (QSGDA, DIANA-SGDA, VR-DIANA-SGDA) ,座標ランダム化方式 (SEGA-SGDA) など,SGDAの新しい変種を開発した。
論文 参考訳(メタデータ) (2022-02-15T09:17:39Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。