論文の概要: Efficient Solvers for SLOPE in R, Python, Julia, and C++
- arxiv url: http://arxiv.org/abs/2511.02430v1
- Date: Tue, 04 Nov 2025 10:03:15 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-05 18:47:05.887747
- Title: Efficient Solvers for SLOPE in R, Python, Julia, and C++
- Title(参考訳): R、Python、Julia、C++におけるSLOPEの効率的な解法
- Authors: Johan Larsson, Malgorzata Bogdan, Krystyna Grzesiak, Mathurin Massias, Jonas Wallin,
- Abstract要約: 本稿では,Sorted L-One Penalized Estimation 問題を効率的に解決するパッケージ群を提案する。
パッケージは、一般化線形モデルに適合する高効率なハイブリッド座標降下アルゴリズムを備えている。
私たちの実装は高速で、メモリ効率が良く、柔軟に設計されています。
- 参考スコア(独自算出の注目度): 5.542449901887863
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We present a suite of packages in R, Python, Julia, and C++ that efficiently solve the Sorted L-One Penalized Estimation (SLOPE) problem. The packages feature a highly efficient hybrid coordinate descent algorithm that fits generalized linear models (GLMs) and supports a variety of loss functions, including Gaussian, binomial, Poisson, and multinomial logistic regression. Our implementation is designed to be fast, memory-efficient, and flexible. The packages support a variety of data structures (dense, sparse, and out-of-memory matrices) and are designed to efficiently fit the full SLOPE path as well as handle cross-validation of SLOPE models, including the relaxed SLOPE. We present examples of how to use the packages and benchmarks that demonstrate the performance of the packages on both real and simulated data and show that our packages outperform existing implementations of SLOPE in terms of speed.
- Abstract(参考訳): 本稿では,Sorted L-One Penalized Estimation (SLOPE) 問題を効率的に解決するパッケージを R, Python, Julia, C++ で提示する。
パッケージは、一般化線形モデル(GLM)に適合し、ガウス、二項、ポアソン、多項ロジスティック回帰を含む様々な損失関数をサポートする高効率なハイブリッド座標降下アルゴリズムを備えている。
私たちの実装は高速で、メモリ効率が良く、柔軟に設計されています。
パッケージは、さまざまなデータ構造(dense、sparse、out-of-Memory matrices)をサポートし、完全なSLOPEパスを効率よく適合させ、緩和されたSLOPEを含むSLOPEモデルのクロスバリデーションを処理するように設計されている。
本稿では,実データと模擬データの両方において,パッケージの性能を示すパッケージとベンチマークの使い方を紹介するとともに,パッケージがSLOPEの既存の実装よりも高速であることを示す。
関連論文リスト
- HiGP: A high-performance Python package for Gaussian Process [13.127443064937735]
HiGPは、効率的なガウスプロセス回帰(GPR)と分類(GPC)のために設計された高性能Pythonパッケージである。
マトリクスベクター (MatVec) とマトリクス (MatMul) の乗算戦略を実装しており、カーネル行列に特化している。
ユーザフレンドリなPythonインターフェースにより、HiGPはPyTorchや他のPythonパッケージとシームレスに統合され、既存の機械学習とデータ分析に簡単に組み込むことができる。
論文 参考訳(メタデータ) (2025-03-04T04:17:36Z) - Sketch 'n Solve: An Efficient Python Package for Large-Scale Least Squares Using Randomized Numerical Linear Algebra [0.0]
我々は、効率的なランダム化数値線形代数手法を実装したオープンソースのPythonパッケージであるSketch 'n Solveを提案する。
本研究では, 従来のLSQRよりも最大50倍の高速化を実現し, 精度も高いことを示す。
このパッケージは、機械学習の最適化、信号処理、科学計算の応用に特に有望であることを示している。
論文 参考訳(メタデータ) (2024-09-22T04:29:51Z) - Multimodal Learned Sparse Retrieval with Probabilistic Expansion Control [66.78146440275093]
学習検索(LSR)は、クエリとドキュメントを疎語彙ベクトルにエンコードするニューラルネットワークのファミリーである。
テキスト画像検索に焦点をあて,マルチモーダル領域へのLSRの適用について検討する。
LexLIPやSTAIRのような現在のアプローチでは、大規模なデータセットで複雑なマルチステップのトレーニングが必要です。
提案手法は, 密度ベクトルを凍結密度モデルからスパース語彙ベクトルへ効率的に変換する。
論文 参考訳(メタデータ) (2024-02-27T14:21:56Z) - Multi-Task Learning for Sparsity Pattern Heterogeneity: Statistical and Computational Perspectives [10.514866749547558]
マルチタスク学習(MTL)において、複数の線形モデルがデータセットの集合上で協調的に訓練される問題を考える。
我々のフレームワークの重要な特徴は、回帰係数のスパーシティパターンと非ゼロ係数の値がタスク間で異なることである。
提案手法は,1) 係数のサポートを個別に促進し,2) 非ゼロ係数の値を類似させることにより,タスク間の情報共有を奨励する。
これにより、非ゼロ係数値がタスク間で異なる場合でも、モデルが可変選択中に強度を借りることができる。
論文 参考訳(メタデータ) (2022-12-16T19:52:25Z) - Sparse high-dimensional linear regression with a partitioned empirical
Bayes ECM algorithm [62.997667081978825]
疎高次元線形回帰に対する計算効率が高く強力なベイズ的手法を提案する。
パラメータに関する最小の事前仮定は、プラグイン経験的ベイズ推定(英語版)を用いて用いられる。
提案手法はRパッケージプローブに実装されている。
論文 参考訳(メタデータ) (2022-09-16T19:15:50Z) - NumS: Scalable Array Programming for the Cloud [82.827921577004]
タスクベース分散システム上でNumPyのような表現を最適化する配列プログラミングライブラリであるNumSを提案する。
これはLoad Simulated Hierarchical Scheduling (LSHS)と呼ばれる新しいスケジューラによって実現される。
LSHSは、ネットワーク負荷を2倍減らし、メモリを4倍減らし、ロジスティック回帰問題において実行時間を10倍減らし、Rayの性能を向上させる。
論文 参考訳(メタデータ) (2022-06-28T20:13:40Z) - Stochastic Gradient Descent without Full Data Shuffle [65.97105896033815]
CorgiPileは階層的なデータシャッフル戦略で、完全なデータシャッフルを回避すると同時に、完全なシャッフルを実行したかのようにSGDの収束率を同等に維持する。
以上の結果から,CorgiPileは深層学習モデルと一般化線形モデルの両方において,全シャッフルベースSGDと同等の収束率を達成できることが示唆された。
論文 参考訳(メタデータ) (2022-06-12T20:04:31Z) - The flare Package for High Dimensional Linear Regression and Precision
Matrix Estimation in R [45.24529956312764]
本稿では,新しい高次元回帰手法のファミリーを実装したフレアというRパッケージについて述べる。
パッケージフレアは二重精度Cで符号化され、ユーザフレンドリーなインターフェースによってRから呼び出される。
実験により、フレアは効率的で、大きな問題にスケールアップできることが示された。
論文 参考訳(メタデータ) (2020-06-27T18:01:56Z) - Picasso: A Sparse Learning Library for High Dimensional Data Analysis in
R and Python [77.33905890197269]
本稿では,様々なスパース学習問題に対して,経路座標を統一的に最適化する新しいライブラリについて述べる。
ライブラリはR++でコード化されており、ユーザフレンドリーなスパース実験を行っている。
論文 参考訳(メタデータ) (2020-06-27T02:39:24Z) - Multi-layer Optimizations for End-to-End Data Analytics [71.05611866288196]
代替アプローチを実現するフレームワークであるIFAQ(Iterative Functional Aggregate Queries)を紹介する。
IFAQは、特徴抽出クエリと学習タスクを、IFAQのドメイン固有言語で与えられた1つのプログラムとして扱う。
IFAQ の Scala 実装が mlpack,Scikit,特殊化を数桁で上回り,線形回帰木モデルや回帰木モデルを複数の関係データセット上で処理可能であることを示す。
論文 参考訳(メタデータ) (2020-01-10T16:14:44Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。