論文の概要: Feature Space Sketching for Logistic Regression
- arxiv url: http://arxiv.org/abs/2303.14284v1
- Date: Fri, 24 Mar 2023 21:46:04 GMT
- ステータス: 処理完了
- システム内更新日: 2023-03-28 20:57:12.432797
- Title: Feature Space Sketching for Logistic Regression
- Title(参考訳): ロジスティック回帰のための特徴空間スケッチ
- Authors: Gregory Dexter, Rajiv Khanna, Jawad Raheel, and Petros Drineas
- Abstract要約: 本稿では,ロジスティック回帰のためのコアセット構築,特徴選択,次元化のための新しい境界について述べる。
これら3つのアプローチは、ロジスティック回帰入力をスケッチしたものと考えることができる。
- 参考スコア(独自算出の注目度): 9.988796763382014
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We present novel bounds for coreset construction, feature selection, and
dimensionality reduction for logistic regression. All three approaches can be
thought of as sketching the logistic regression inputs. On the coreset
construction front, we resolve open problems from prior work and present novel
bounds for the complexity of coreset construction methods. On the feature
selection and dimensionality reduction front, we initiate the study of forward
error bounds for logistic regression. Our bounds are tight up to constant
factors and our forward error bounds can be extended to Generalized Linear
Models.
- Abstract(参考訳): 本稿では,コアセット構成,特徴選択,ロジスティック回帰の次元性低減のための新しい境界を提案する。
これら3つのアプローチはロジスティック回帰入力のスケッチと考えることができる。
コアセット構築の最前線では,事前作業から開放的な問題を解消し,コアセット構築手法の複雑さに対する新たな境界を提案する。
特徴選択と次元減少の面では、ロジスティック回帰のための前方誤差境界の研究を開始する。
我々の境界は定数に密着しており、前方誤差境界は一般化線形モデルに拡張することができる。
関連論文リスト
- Refined Risk Bounds for Unbounded Losses via Transductive Priors [58.967816314671296]
線形回帰の逐次変分を2乗損失、ヒンジ損失の分類問題、ロジスティック回帰で再検討する。
我々の鍵となるツールは、慎重に選択された導出先を持つ指数重み付けアルゴリズムに基づいている。
論文 参考訳(メタデータ) (2024-10-29T00:01:04Z) - Optimal lower bounds for logistic log-likelihoods [1.3124513975412255]
ロジット変換は、おそらく線形設定を超えて最も広く採用されているリンク関数である。
2次よりも鋭い接する下界が、結果として生じるマイノライザーのトラクタビリティを損なうことなく導出できるかどうかはまだ分かっていない。
本稿は、新しい2次下界の設計と研究を通じて、このような挑戦的な問題に対処する。
論文 参考訳(メタデータ) (2024-10-14T09:09:33Z) - Deep Generative Symbolic Regression [83.04219479605801]
記号回帰は、データから簡潔な閉形式数学的方程式を発見することを目的としている。
既存の手法は、探索から強化学習まで、入力変数の数に応じてスケールできない。
本稿では,我々のフレームワークであるDeep Generative Symbolic Regressionのインスタンス化を提案する。
論文 参考訳(メタデータ) (2023-12-30T17:05:31Z) - Curvature-Independent Last-Iterate Convergence for Games on Riemannian
Manifolds [77.4346324549323]
本研究では, 多様体の曲率に依存しないステップサイズが, 曲率非依存かつ直線的最終点収束率を達成することを示す。
我々の知る限りでは、曲率非依存率や/または最終点収束の可能性はこれまでに検討されていない。
論文 参考訳(メタデータ) (2023-06-29T01:20:44Z) - Implicit Bias of Gradient Descent for Logistic Regression at the Edge of
Stability [69.01076284478151]
機械学習の最適化において、勾配降下(GD)はしばしば安定性の端(EoS)で動く
本稿では,EoS系における線形分離可能なデータに対するロジスティック回帰のための定数段差GDの収束と暗黙バイアスについて検討する。
論文 参考訳(メタデータ) (2023-05-19T16:24:47Z) - Designing Universal Causal Deep Learning Models: The Case of
Infinite-Dimensional Dynamical Systems from Stochastic Analysis [3.5450828190071655]
因果作用素(COs)は、現代の分析において中心的な役割を果たす。
COを近似できるディープラーニング(DL)モデルを設計するための標準的なフレームワークはまだ存在しない。
本稿では、DLモデル設計フレームワークを導入することにより、このオープンな問題に対する「幾何学的認識」ソリューションを提案する。
論文 参考訳(メタデータ) (2022-10-24T14:43:03Z) - Differentially Private Regression with Unbounded Covariates [19.646866014320608]
我々は,Last Squares Fitting,Binary Regression,Linear Regressionの古典的回帰設定に対して,差分プライベートなアルゴリズムを提供する。
我々は、ロジスティック回帰と線形分離可能なSVMの基本モデルと広く研究されているモデルを捉え、真の回帰ベクトルの偏りのない推定を学習する。
論文 参考訳(メタデータ) (2022-02-19T17:31:38Z) - Learning Output Embeddings in Structured Prediction [73.99064151691597]
構造化予測に対する強力で柔軟なアプローチは、予測される構造化対象を潜在的に無限次元の特徴空間に埋め込むことである。
原空間における予測は、前像問題の解法により計算される。
本研究では,新しい特徴空間に出力埋め込みと回帰関数の有限近似を共同で学習することを提案する。
論文 参考訳(メタデータ) (2020-07-29T09:32:53Z) - A spectral algorithm for robust regression with subgaussian rates [0.0]
本研究では, 試料の分布に強い仮定がない場合の線形回帰に対する2次時間に対する新しい線形アルゴリズムについて検討する。
目的は、データが有限モーメントしか持たなくても最適な準ガウス誤差を達成できる手順を設計することである。
論文 参考訳(メタデータ) (2020-07-12T19:33:50Z) - A Permutation-Equivariant Neural Network Architecture For Auction Design [49.41561446069114]
期待収益を最大化するインセンティブ互換オークションの設計は、オークションデザインの中心的な問題である。
本研究では、置換同変対称性を有するオークション設計問題を考察し、置換同変最適機構を完全に回復できるニューラルネットワークを構築する。
論文 参考訳(メタデータ) (2020-03-02T00:37:36Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。