論文の概要: Sparse Private LASSO Logistic Regression
- arxiv url: http://arxiv.org/abs/2304.12429v1
- Date: Mon, 24 Apr 2023 20:14:12 GMT
- ステータス: 処理完了
- システム内更新日: 2023-04-26 22:46:39.725200
- Title: Sparse Private LASSO Logistic Regression
- Title(参考訳): Sparse Private LASSO Logistic Regression
- Authors: Amol Khanna, Fred Lu, Edward Raff
- Abstract要約: 硬度ゼロを維持した疎対数回帰法を微分プライベートに提案する。
我々の重要な洞察は、まず非プライベートなLASSOロジスティック回帰モデルを訓練し、非ゼロ係数の適切なプライベート化数を決定することである。
- 参考スコア(独自算出の注目度): 32.18582226044492
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: LASSO regularized logistic regression is particularly useful for its built-in
feature selection, allowing coefficients to be removed from deployment and
producing sparse solutions. Differentially private versions of LASSO logistic
regression have been developed, but generally produce dense solutions, reducing
the intrinsic utility of the LASSO penalty. In this paper, we present a
differentially private method for sparse logistic regression that maintains
hard zeros. Our key insight is to first train a non-private LASSO logistic
regression model to determine an appropriate privatized number of non-zero
coefficients to use in final model selection. To demonstrate our method's
performance, we run experiments on synthetic and real-world datasets.
- Abstract(参考訳): LASSOの正規化ロジスティック回帰は、特に組み込みの機能選択に有用であり、配置から係数を除去し、疎解を生成することができる。
LASSOロジスティック回帰の異なるプライベートバージョンが開発されているが、一般に密度の高い解が生成され、LASSOペナルティの本質的な有用性が低下する。
本稿では,硬零点を維持できる分散ロジスティック回帰のための微分プライベート法を提案する。
我々の重要な洞察は、まず非プライベートラッソロジスティック回帰モデルを訓練し、最終モデル選択に使用する非零係数の民営化数を決定することである。
提案手法の性能を示すため,合成および実世界のデータセットを用いた実験を行った。
関連論文リスト
- Understanding LLM Embeddings for Regression [8.095573259696092]
本論文は埋め込み型回帰に関する最初の包括的な研究の1つを提供する。
LLMを機能として組み込むことは,従来の機能工学よりも高次元回帰作業に有効であることを示す。
私たちは異なるモデル効果、特にモデルのサイズと言語理解の貢献を定量化します。
論文 参考訳(メタデータ) (2024-11-22T03:33:51Z) - Regression-aware Inference with LLMs [52.764328080398805]
提案手法は,一般的な回帰と評価指標に準最適であることを示す。
本稿では,ベイズ最適解を推定し,サンプル応答からクローズド形式の評価指標を推定する代替推論手法を提案する。
論文 参考訳(メタデータ) (2024-03-07T03:24:34Z) - Deep Generative Symbolic Regression [83.04219479605801]
記号回帰は、データから簡潔な閉形式数学的方程式を発見することを目的としている。
既存の手法は、探索から強化学習まで、入力変数の数に応じてスケールできない。
本稿では,我々のフレームワークであるDeep Generative Symbolic Regressionのインスタンス化を提案する。
論文 参考訳(メタデータ) (2023-12-30T17:05:31Z) - Out of the Ordinary: Spectrally Adapting Regression for Covariate Shift [12.770658031721435]
本稿では,学習前のニューラル回帰モデルの最後の層の重みを適応させて,異なる分布から得られる入力データを改善する手法を提案する。
本稿では,この軽量なスペクトル適応手法により,合成および実世界のデータセットの分布外性能が向上することを示す。
論文 参考訳(メタデータ) (2023-12-29T04:15:58Z) - On Regularized Sparse Logistic Regression [5.174012156390378]
本稿では,$ell$regularized logistic regressionを解くための統一フレームワークを提案する。
我々の実験は、我々の実験を低コストで効果的に行うことができる。
論文 参考訳(メタデータ) (2023-09-12T02:52:40Z) - Robust Outlier Rejection for 3D Registration with Variational Bayes [70.98659381852787]
我々は、ロバストアライメントのための新しい変分非局所ネットワークベース外乱除去フレームワークを開発した。
そこで本稿では, 投票に基づく不整合探索手法を提案し, 変換推定のための高品質な仮説的不整合をクラスタリングする。
論文 参考訳(メタデータ) (2023-04-04T03:48:56Z) - Oracle Inequalities for Model Selection in Offline Reinforcement
Learning [105.74139523696284]
本稿では,値関数近似を用いたオフラインRLにおけるモデル選択の問題について検討する。
対数係数まで最小値の速度-最適不等式を実現するオフラインRLの最初のモデル選択アルゴリズムを提案する。
そこで本研究では,優れたモデルクラスを確実に選択できることを示す数値シミュレーションを行った。
論文 参考訳(メタデータ) (2022-11-03T17:32:34Z) - Differentially Private Regression with Unbounded Covariates [19.646866014320608]
我々は,Last Squares Fitting,Binary Regression,Linear Regressionの古典的回帰設定に対して,差分プライベートなアルゴリズムを提供する。
我々は、ロジスティック回帰と線形分離可能なSVMの基本モデルと広く研究されているモデルを捉え、真の回帰ベクトルの偏りのない推定を学習する。
論文 参考訳(メタデータ) (2022-02-19T17:31:38Z) - Continuously Generalized Ordinal Regression for Linear and Deep Models [41.03778663275373]
正規回帰は、クラスが順序を持ち、予測エラーが予測されたクラスが真のクラスからさらに大きくなるような分類タスクである。
本稿では,クラス固有の超平面斜面をモデル化するための新しい手法を提案する。
本手法は,順序回帰ベンチマークデータセットの完全セットに対して,標準順序ロジスティックモデルよりも大幅に優れる。
論文 参考訳(メタデータ) (2022-02-14T19:49:05Z) - LQF: Linear Quadratic Fine-Tuning [114.3840147070712]
本稿では,非線形微調整に匹敵する性能を実現する事前学習モデルの線形化手法を提案する。
LQFはアーキテクチャの単純な変更、損失関数、そして一般的に分類に使用される最適化で構成されている。
論文 参考訳(メタデータ) (2020-12-21T06:40:20Z) - On the Adversarial Robustness of LASSO Based Feature Selection [72.54211869067979]
検討されたモデルでは、悪意のある敵がデータセット全体を観察し、レスポンス値やフィーチャーマトリックスを慎重に修正する。
両レベルの最適化問題として、敵の修正戦略を定式化する。
合成および実データを用いた数値的な例は,本手法が効率的かつ効果的であることを示している。
論文 参考訳(メタデータ) (2020-10-20T05:51:26Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。