論文の概要: The flare Package for High Dimensional Linear Regression and Precision
Matrix Estimation in R
- arxiv url: http://arxiv.org/abs/2006.15419v1
- Date: Sat, 27 Jun 2020 18:01:56 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-16 07:42:19.533012
- Title: The flare Package for High Dimensional Linear Regression and Precision
Matrix Estimation in R
- Title(参考訳): rにおける高次元線形回帰と精度行列推定のためのフレアパッケージ
- Authors: Xingguo Li, Tuo Zhao, Xiaoming Yuan, Han Liu
- Abstract要約: 本稿では,新しい高次元回帰手法のファミリーを実装したフレアというRパッケージについて述べる。
パッケージフレアは二重精度Cで符号化され、ユーザフレンドリーなインターフェースによってRから呼び出される。
実験により、フレアは効率的で、大きな問題にスケールアップできることが示された。
- 参考スコア(独自算出の注目度): 45.24529956312764
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: This paper describes an R package named flare, which implements a family of
new high dimensional regression methods (LAD Lasso, SQRT Lasso, $\ell_q$ Lasso,
and Dantzig selector) and their extensions to sparse precision matrix
estimation (TIGER and CLIME). These methods exploit different nonsmooth loss
functions to gain modeling flexibility, estimation robustness, and tuning
insensitiveness. The developed solver is based on the alternating direction
method of multipliers (ADMM). The package flare is coded in double precision C,
and called from R by a user-friendly interface. The memory usage is optimized
by using the sparse matrix output. The experiments show that flare is efficient
and can scale up to large problems.
- Abstract(参考訳): 本稿では,新しい高次元回帰手法(LAD Lasso, SQRT Lasso, $\ell_q$ Lasso, Dantzig selector)と,スパース精度行列推定(TIGER, CLIME)の拡張を実装したフレアというRパッケージについて述べる。
これらの手法は、モデリングの柔軟性、推定ロバスト性、チューニングの不感性を得るために異なる非スムース損失関数を利用する。
開発した解法は乗算器の交互方向法(ADMM)に基づいている。
パッケージフレアはダブル精度cでコーディングされ、ユーザーフレンドリーなインターフェースによってrから呼び出される。
スパースマトリックス出力を用いてメモリ使用量を最適化する。
実験の結果、フレアは効率的であり、大きな問題にスケールできることがわかった。
関連論文リスト
- An adaptive shortest-solution guided decimation approach to sparse
high-dimensional linear regression [2.3759847811293766]
ASSDは最短解誘導アルゴリズムから適応され、ASSDと呼ばれる。
ASSDは、実世界の応用で遭遇する高度に相関した測定行列を持つ線形回帰問題に特に適している。
論文 参考訳(メタデータ) (2022-11-28T04:29:57Z) - Sparse high-dimensional linear regression with a partitioned empirical
Bayes ECM algorithm [62.997667081978825]
疎高次元線形回帰に対する計算効率が高く強力なベイズ的手法を提案する。
パラメータに関する最小の事前仮定は、プラグイン経験的ベイズ推定(英語版)を用いて用いられる。
提案手法はRパッケージプローブに実装されている。
論文 参考訳(メタデータ) (2022-09-16T19:15:50Z) - Weighted Low Rank Matrix Approximation and Acceleration [0.5177947445379687]
低ランク行列近似は機械学習における中心的な概念の1つである。
低ランク行列補完(LRMC)は、いくつかの観測が欠落しているときにLRMA問題を解く。
重み付き問題を解くアルゴリズムと2つの加速手法を提案する。
論文 参考訳(メタデータ) (2021-09-22T22:03:48Z) - Unfolding Projection-free SDP Relaxation of Binary Graph Classifier via
GDPA Linearization [59.87663954467815]
アルゴリズムの展開は、モデルベースのアルゴリズムの各イテレーションをニューラルネットワーク層として実装することにより、解釈可能で類似のニューラルネットワークアーキテクチャを生成する。
本稿では、Gershgorin disc perfect alignment (GDPA)と呼ばれる最近の線形代数定理を利用して、二進グラフの半定値プログラミング緩和(SDR)のためのプロジェクションフリーアルゴリズムをアンロールする。
実験結果から,我々の未学習ネットワークは純粋モデルベースグラフ分類器よりも優れ,純粋データ駆動ネットワークに匹敵する性能を示したが,パラメータははるかに少なかった。
論文 参考訳(メタデータ) (2021-09-10T07:01:15Z) - Robust Regression via Model Based Methods [13.300549123177705]
モデルベース最適化 (MBO) [35, 36] に着想を得たアルゴリズムを提案し, 非対象を凸モデル関数に置き換える。
これをロバスト回帰に適用し、MBOの内部最適化を解くために、オンライン乗算器のオンライン交互方向法(OOADM) [50] の関数 SADM を提案する。
最後に、(a)アウトレーヤに対するl_pノルムのロバスト性、(b)オートエンコーダ法とマルチターゲット回帰法と比較して、提案したモデルベースアルゴリズムの効率性を実験的に実証した。
論文 参考訳(メタデータ) (2021-06-20T21:45:35Z) - Sparse Bayesian Learning via Stepwise Regression [1.2691047660244335]
我々は、RMP(Relevance Matching Pursuit)と呼ばれるSBLのための座標加算アルゴリズムを提案する。
ノイズ分散パラメータがゼロになるにつれて、RMPはステップワイド回帰と驚くべき関係を示す。
ステップワイド回帰アルゴリズムの新たな保証を導き、RMPにも光を当てる。
論文 参考訳(メタデータ) (2021-06-11T00:20:27Z) - Solving weakly supervised regression problem using low-rank manifold
regularization [77.34726150561087]
我々は弱い教師付き回帰問題を解く。
weakly"の下では、いくつかのトレーニングポイントではラベルが知られ、未知のものもあれば、無作為なノイズの存在やリソースの欠如などの理由によって不確かであることが分かっています。
数値的な節ではモンテカルロモデルを用いて提案手法を人工と実のデータセットに適用した。
論文 参考訳(メタデータ) (2021-04-13T23:21:01Z) - Square Root Bundle Adjustment for Large-Scale Reconstruction [56.44094187152862]
QR分解によるランドマーク変数のnullspace marginalizationに依存するバンドル調整問題の新たな定式化を提案する。
平方根束調整と呼ばれる私たちのアプローチは、一般的に使用されるSchur補完トリックと代数的に等価です。
BALデータセットを用いた実世界での実験では、提案されたソルバが単一の精度でも平均的等しく正確なソリューションで達成できることを示す。
論文 参考訳(メタデータ) (2021-03-02T16:26:20Z) - Implicit differentiation of Lasso-type models for hyperparameter
optimization [82.73138686390514]
ラッソ型問題に適した行列逆転のない効率的な暗黙微分アルゴリズムを提案する。
提案手法は,解の空間性を利用して高次元データにスケールする。
論文 参考訳(メタデータ) (2020-02-20T18:43:42Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。