論文の概要: c-lasso -- a Python package for constrained sparse and robust regression
and classification
- arxiv url: http://arxiv.org/abs/2011.00898v1
- Date: Mon, 2 Nov 2020 11:16:27 GMT
- ステータス: 処理完了
- システム内更新日: 2022-09-30 12:59:57.040534
- Title: c-lasso -- a Python package for constrained sparse and robust regression
and classification
- Title(参考訳): c-lasso -- 制約付きスパースとロバストな回帰と分類のためのpythonパッケージ
- Authors: L\'eo Simpson, Patrick L. Combettes, Christian L. M\"uller
- Abstract要約: c-lassoは、疎結合で堅牢な線形回帰と線形等式制約による分類を可能にするPythonパッケージである。
c-lassoパッケージは未知の係数とスケールを推定するための推定器を提供する。
これには制約付きラッソ、制約付きスケール付きラッソ、線形等式制約を持つスパースフーバー M-推定器が含まれる。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We introduce c-lasso, a Python package that enables sparse and robust linear
regression and classification with linear equality constraints. The underlying
statistical forward model is assumed to be of the following form: \[ y = X
\beta + \sigma \epsilon \qquad \textrm{subject to} \qquad C\beta=0 \] Here, $X
\in \mathbb{R}^{n\times d}$is a given design matrix and the vector $y \in
\mathbb{R}^{n}$ is a continuous or binary response vector. The matrix $C$ is a
general constraint matrix. The vector $\beta \in \mathbb{R}^{d}$ contains the
unknown coefficients and $\sigma$ an unknown scale. Prominent use cases are
(sparse) log-contrast regression with compositional data $X$, requiring the
constraint $1_d^T \beta = 0$ (Aitchion and Bacon-Shone 1984) and the
Generalized Lasso which is a special case of the described problem (see, e.g,
(James, Paulson, and Rusmevichientong 2020), Example 3). The c-lasso package
provides estimators for inferring unknown coefficients and scale (i.e.,
perspective M-estimators (Combettes and M\"uller 2020a)) of the form \[
\min_{\beta \in \mathbb{R}^d, \sigma \in \mathbb{R}_{0}} f\left(X\beta -
y,{\sigma} \right) + \lambda \left\lVert \beta\right\rVert_1 \qquad
\textrm{subject to} \qquad C\beta = 0 \] for several convex loss functions
$f(\cdot,\cdot)$. This includes the constrained Lasso, the constrained scaled
Lasso, and sparse Huber M-estimators with linear equality constraints.
- Abstract(参考訳): 我々は,線形等式制約付き線形回帰と分類を可能にするpythonパッケージであるc-lassoを紹介する。
基礎となる統計フォワードモデルは以下の形式のものと仮定される: \[ y = X \beta + \sigma \epsilon \qquad \textrm{subject to} \qquad C\beta=0 \] ここで、$X \in \mathbb{R}^{n\times d}$is a given design matrix and vector $y \in \mathbb{R}^{n}$ is a continuous or binary response vector。
行列 $C$ は一般制約行列である。
ベクトル $\beta \in \mathbb{r}^{d}$ は未知係数を含み、$\sigma$ は未知スケールである。
代表的なユースケースは、構成データによる(少ない)ログコントラスト回帰で、$X$であり、制約の1_d^T \beta = 0$ (Aitchion and Bacon-Shone 1984) と、記述された問題の特別なケースである一般化ラッソ(例えば (James, Paulson, Rusmevichientong 2020), 例3である。
c-lassoパッケージは、いくつかの凸損失関数に対して \[ \min_{\beta \in \mathbb{r}^d, \sigma \in \mathbb{r}_{0}} f\left(x\betay,{\sigma} \right) + \lambda \left\lvert \beta\right\rvert_1 \qquad \textrm{subject to} \qquad c\beta = 0 \] という形の未知の係数とスケールを推定するための推定器を提供する。
これには制約付きラッソ、制約付きスケール付きラッソ、線形等式制約を持つスパースフーバー M-推定器が含まれる。
関連論文リスト
- The Communication Complexity of Approximating Matrix Rank [50.6867896228563]
この問題は通信複雑性のランダム化を$Omega(frac1kcdot n2log|mathbbF|)$とする。
アプリケーションとして、$k$パスを持つ任意のストリーミングアルゴリズムに対して、$Omega(frac1kcdot n2log|mathbbF|)$スペースローバウンドを得る。
論文 参考訳(メタデータ) (2024-10-26T06:21:42Z) - Provably learning a multi-head attention layer [55.2904547651831]
マルチヘッドアテンション層は、従来のフィードフォワードモデルとは分離したトランスフォーマーアーキテクチャの重要な構成要素の1つである。
本研究では,ランダムな例から多面的注意層を実証的に学習する研究を開始する。
最悪の場合、$m$に対する指数的依存は避けられないことを示す。
論文 参考訳(メタデータ) (2024-02-06T15:39:09Z) - Relation between PLS and OLS regression in terms of the eigenvalue
distribution of the regressor covariance matrix [0.0]
部分最小二乗法 (partial least squares, PLS) は、化学工学の分野で導入された次元還元法である。
PLS回帰は、クリロフ部分空間に制限された最小二乗問題として定式化することができる。
私たちは$hatboldsymbolbeta;_mathrmPLSscriptscriptstyle (L)$の間の距離を分析する。
論文 参考訳(メタデータ) (2023-12-03T13:00:03Z) - Learning linear dynamical systems under convex constraints [4.4351901934764975]
線形力学系を単一軌道の$T$サンプルから同定する問題を考察する。
A*$は、制約のない設定に必要な値よりも$T$小さい値を確実に見積もることができる。
論文 参考訳(メタデータ) (2023-03-27T11:49:40Z) - Spectral properties of sample covariance matrices arising from random
matrices with independent non identically distributed columns [50.053491972003656]
関数 $texttr(AR(z))$, for $R(z) = (frac1nXXT- zI_p)-1$ and $Ain mathcal M_p$ deterministic, have a standard deviation of order $O(|A|_* / sqrt n)$.
ここでは、$|mathbb E[R(z)] - tilde R(z)|_F を示す。
論文 参考訳(メタデータ) (2021-09-06T14:21:43Z) - Statistical Query Lower Bounds for List-Decodable Linear Regression [55.06171096484622]
本稿では,リスト復号化可能な線形回帰問題について考察する。
我々の主な成果は、この問題に対して$dmathrmpoly (1/alpha)$の統計的クエリ(SQ)の低いバウンダリである。
論文 参考訳(メタデータ) (2021-06-17T17:45:21Z) - Near-Optimal Model Discrimination with Non-Disclosure [19.88145627448243]
まず、二乗損失を持つよく特定された線形モデルについて考察する。
類似した形態のサンプルの複雑さは、たとえ不特定であっても引き起こされる。
論文 参考訳(メタデータ) (2020-12-04T23:52:54Z) - Optimal Mean Estimation without a Variance [103.26777953032537]
本研究では,データ生成分布の分散が存在しない環境での重み付き平均推定問題について検討する。
最小の信頼区間を$n,d,delta$の関数として得る推定器を設計する。
論文 参考訳(メタデータ) (2020-11-24T22:39:21Z) - On the Optimal Weighted $\ell_2$ Regularization in Overparameterized
Linear Regression [23.467801864841526]
線形モデル $mathbfy = mathbfX mathbfbeta_star + mathbfepsilon$ with $mathbfXin mathbbRntimes p$ in the overparameterized regime $p>n$ を考える。
予測リスク $mathbbE(y-mathbfxThatmathbfbeta_lambda)2$ in proportional limit $p/n の正確なキャラクタリゼーションを提供する。
論文 参考訳(メタデータ) (2020-06-10T12:38:43Z) - Agnostic Learning of a Single Neuron with Gradient Descent [92.7662890047311]
期待される正方形損失から、最も適合した単一ニューロンを学習することの問題点を考察する。
ReLUアクティベーションでは、我々の人口リスク保証は$O(mathsfOPT1/2)+epsilon$である。
ReLUアクティベーションでは、我々の人口リスク保証は$O(mathsfOPT1/2)+epsilon$である。
論文 参考訳(メタデータ) (2020-05-29T07:20:35Z) - On the robustness of the minimum $\ell_2$ interpolator [2.918940961856197]
一般高次元線形回帰フレームワークにおいて最小$ell$-norm$hatbeta$で補間を解析する。
高い確率で、この推定器の予測損失は、上から$(|beta*|2r_cn(Sigma)vee |xi|2)/n$で有界であることを証明する。
論文 参考訳(メタデータ) (2020-03-12T15:12:28Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。