論文の概要: Picasso: A Sparse Learning Library for High Dimensional Data Analysis in
R and Python
- arxiv url: http://arxiv.org/abs/2006.15261v1
- Date: Sat, 27 Jun 2020 02:39:24 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-16 07:31:22.788236
- Title: Picasso: A Sparse Learning Library for High Dimensional Data Analysis in
R and Python
- Title(参考訳): Picasso: RとPythonの高次元データ分析のためのスパース学習ライブラリ
- Authors: Jason Ge, Xingguo Li, Haoming Jiang, Han Liu, Tong Zhang, Mengdi Wang,
Tuo Zhao
- Abstract要約: 本稿では,様々なスパース学習問題に対して,経路座標を統一的に最適化する新しいライブラリについて述べる。
ライブラリはR++でコード化されており、ユーザフレンドリーなスパース実験を行っている。
- 参考スコア(独自算出の注目度): 77.33905890197269
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We describe a new library named picasso, which implements a unified framework
of pathwise coordinate optimization for a variety of sparse learning problems
(e.g., sparse linear regression, sparse logistic regression, sparse Poisson
regression and scaled sparse linear regression) combined with efficient active
set selection strategies. Besides, the library allows users to choose different
sparsity-inducing regularizers, including the convex $\ell_1$, nonconvex MCP
and SCAD regularizers. The library is coded in C++ and has user-friendly R and
Python wrappers. Numerical experiments demonstrate that picasso can scale up to
large problems efficiently.
- Abstract(参考訳): 本稿では,様々なスパース学習問題(スパース線形回帰,スパースロジスティック回帰,スパース・ポアソン回帰,スケールド・スパース線形回帰など)に対して,効率的な能動集合選択戦略を組み合わせた経路座標の統一的なフレームワークを実装したpicassoというライブラリについて述べる。
さらにライブラリでは,convex $\ell_1$, nonconvex MCP, SCAD regularizersなど,さまざまなスペーサ誘導正規化子を選択することができる。
ライブラリはC++でコード化されており、ユーザフレンドリーなRとPythonラッパーを備えている。
数値実験により、ピカソは大きな問題に効率的にスケールアップできることが示された。
関連論文リスト
- $\texttt{skwdro}$: a library for Wasserstein distributionally robust machine learning [6.940992962425166]
skwdroは、堅牢な機械学習モデルをトレーニングするためのPythonライブラリである。
一般的な目的のために、Scikit-learn互換の推定器と、PyTorchモジュール用のラッパーの両方を備えている。
論文 参考訳(メタデータ) (2024-10-28T17:16:00Z) - Multimodal Learned Sparse Retrieval with Probabilistic Expansion Control [66.78146440275093]
学習検索(LSR)は、クエリとドキュメントを疎語彙ベクトルにエンコードするニューラルネットワークのファミリーである。
テキスト画像検索に焦点をあて,マルチモーダル領域へのLSRの適用について検討する。
LexLIPやSTAIRのような現在のアプローチでは、大規模なデータセットで複雑なマルチステップのトレーニングが必要です。
提案手法は, 密度ベクトルを凍結密度モデルからスパース語彙ベクトルへ効率的に変換する。
論文 参考訳(メタデータ) (2024-02-27T14:21:56Z) - LibAUC: A Deep Learning Library for X-Risk Optimization [43.32145407575245]
本稿では,LibAUC という賞を受賞したディープラーニングライブラリについて紹介する。
LibAUCは、Xリスクと呼ばれるリスク関数のファミリーを最適化するための最先端のアルゴリズムを実装している。
論文 参考訳(メタデータ) (2023-06-05T17:43:46Z) - SequeL: A Continual Learning Library in PyTorch and JAX [50.33956216274694]
SequeLは継続学習のためのライブラリで、PyTorchとJAXフレームワークの両方をサポートする。
それは、正規化ベースのアプローチ、リプレイベースのアプローチ、ハイブリッドアプローチを含む、幅広い連続学習アルゴリズムのための統一インターフェースを提供する。
私たちはSequeLをオープンソースライブラリとしてリリースし、研究者や開発者が自身の目的で簡単にライブラリを実験し拡張することができます。
論文 参考訳(メタデータ) (2023-04-21T10:00:22Z) - Stochastic Gradient Descent without Full Data Shuffle [65.97105896033815]
CorgiPileは階層的なデータシャッフル戦略で、完全なデータシャッフルを回避すると同時に、完全なシャッフルを実行したかのようにSGDの収束率を同等に維持する。
以上の結果から,CorgiPileは深層学習モデルと一般化線形モデルの両方において,全シャッフルベースSGDと同等の収束率を達成できることが示唆された。
論文 参考訳(メタデータ) (2022-06-12T20:04:31Z) - abess: A Fast Best Subset Selection Library in Python and R [1.6208003359512848]
ベストサブセット選択の統一フレームワークを実装したAbessという新しいライブラリを導入する。
アブスは線形モデルの下で時間内に最適解を得る。
ライブラリの中核はC++でプログラムされており、Pythonライブラリインデックスからインストールすることができる。
論文 参考訳(メタデータ) (2021-10-19T02:34:55Z) - Unfolding Projection-free SDP Relaxation of Binary Graph Classifier via
GDPA Linearization [59.87663954467815]
アルゴリズムの展開は、モデルベースのアルゴリズムの各イテレーションをニューラルネットワーク層として実装することにより、解釈可能で類似のニューラルネットワークアーキテクチャを生成する。
本稿では、Gershgorin disc perfect alignment (GDPA)と呼ばれる最近の線形代数定理を利用して、二進グラフの半定値プログラミング緩和(SDR)のためのプロジェクションフリーアルゴリズムをアンロールする。
実験結果から,我々の未学習ネットワークは純粋モデルベースグラフ分類器よりも優れ,純粋データ駆動ネットワークに匹敵する性能を示したが,パラメータははるかに少なかった。
論文 参考訳(メタデータ) (2021-09-10T07:01:15Z) - MRCpy: A Library for Minimax Risk Classifiers [10.380882297891272]
PythonライブラリであるMRCpyは、ロバストリスク最小化(RRM)アプローチに基づいて、ミニマックスリスク分類器(MRC)を実装している。
MRCpyは、Scikit-learnのような人気のあるPythonライブラリの標準に従い、可読性と使いやすさと、他のライブラリとのシームレスな統合を容易にする。
論文 参考訳(メタデータ) (2021-08-04T10:31:20Z) - Provable Model-based Nonlinear Bandit and Reinforcement Learning: Shelve
Optimism, Embrace Virtual Curvature [61.22680308681648]
決定論的報酬を有する1層ニューラルネットバンディットにおいても,グローバル収束は統計的に難解であることを示す。
非線形バンディットとRLの両方に対して,オンラインモデル学習者による仮想アセンジ(Virtual Ascent with Online Model Learner)というモデルベースアルゴリズムを提案する。
論文 参考訳(メタデータ) (2021-02-08T12:41:56Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。