論文の概要: Data-driven configuration tuning of glmnet to balance accuracy and computation time
- arxiv url: http://arxiv.org/abs/2602.17922v1
- Date: Fri, 20 Feb 2026 00:58:59 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-23 18:01:41.196021
- Title: Data-driven configuration tuning of glmnet to balance accuracy and computation time
- Title(参考訳): glmnetのデータ駆動構成チューニングによる精度と計算時間のバランス
- Authors: Shuhei Muroya, Kei Hirose,
- Abstract要約: glmnetは、その計算効率からラッソ推定に広く採用されているRパッケージである。
glmnetは人気があるにもかかわらず、不適切なデフォルト設定のため、真のものとはかなり異なるソリューションをもたらすことがある。
本稿では、精度と計算効率のトレードオフをバランスさせて構成を最適化する統合データ駆動フレームワークを提案する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: glmnet is a widely adopted R package for lasso estimation due to its computational efficiency. Despite its popularity, glmnet sometimes yields solutions that are substantially different from the true ones because of the inappropriate default configuration of the algorithm. The accuracy of the obtained solutions can be improved by appropriately tuning the configuration. However, improving accuracy typically increases computational time, resulting in a trade-off between accuracy and computational efficiency. Therefore, it is essential to establish a systematic approach to determine appropriate configuration. To address this need, we propose a unified data-driven framework specifically designed to optimize the configuration by balancing the trade-off between accuracy and computational efficiency. We generate large-scale simulated datasets and apply glmnet under various configurations to obtain accuracy and computation time. Based on these results, we construct neural networks that predict accuracy and computation time from data characteristics and configuration. Given a new dataset, our framework uses the neural networks to explore the configuration space and derive a Pareto front that represents the trade-off between accuracy and computational cost. This front allows us to automatically identify the configuration that maximize accuracy under a user-specified time constraint. The proposed method is implemented in the R package 'glmnetconf', available at https://github.com/Shuhei-Muroya/glmnetconf.
- Abstract(参考訳): glmnetは、その計算効率からラッソ推定に広く採用されているRパッケージである。
glmnetは人気があるにもかかわらず、アルゴリズムの不適切なデフォルト設定のため、真のものとはかなり異なる解が得られることがある。
構成を適切に調整することにより、得られた解の精度を向上させることができる。
しかし、精度の向上は典型的には計算時間を増大させ、精度と計算効率のトレードオフをもたらす。
したがって、適切な構成を決定するための体系的なアプローチを確立することが不可欠である。
このニーズに対処するため、我々は、精度と計算効率のトレードオフをバランスさせて構成を最適化するために設計された統一されたデータ駆動フレームワークを提案する。
我々は、大規模なシミュレーションデータセットを生成し、様々な構成でglmnetを適用し、精度と計算時間を得る。
これらの結果に基づいて,データ特性と構成から精度と計算時間を予測できるニューラルネットワークを構築した。
新しいデータセットが与えられた場合、我々のフレームワークはニューラルネットワークを使用して構成空間を探索し、精度と計算コストのトレードオフを表すParetoフロントを導出します。
このフロントでは、ユーザが指定した時間制約の下で精度を最大化する設定を自動的に特定できます。
提案手法はRパッケージ'glmnetconf'で実装されており、https://github.com/Shuhei-Muroya/glmnetconfで利用可能である。
関連論文リスト
- Precision Autotuning for Linear Solvers via Reinforcement Learning [0.0]
本稿では,線形解法の適応的精度調整のための強化学習フレームワークを提案する。
本稿では,2次精度のベースラインに匹敵する精度を維持しながら,計算コストを削減できることを示す。
これはRLによる精度自動チューニングに関する最初の研究であり、目に見えないデータセット上で検証されている。
論文 参考訳(メタデータ) (2026-01-02T15:59:42Z) - Precision Neural Networks: Joint Graph And Relational Learning [36.05842226689587]
共分散ニューラルネットワーク(VNN)は、データの共分散行列によって決定されたグラフ上で畳み込みを行う。
精度行列(逆共分散)の精度ニューラルネットワーク(PNN)について検討する。
我々は,ネットワークパラメータと精度行列を協調的に学習する最適化問題を定式化し,交互に最適化することで解決する。
論文 参考訳(メタデータ) (2025-09-18T10:22:05Z) - Computation-Aware Gaussian Processes: Model Selection And Linear-Time Inference [55.150117654242706]
我々は、1.8万のデータポイントでトレーニングされた計算対応GPのモデル選択が、1つのGPU上で数時間以内に可能であることを示す。
この研究の結果、ガウス過程は、不確実性を定量化する能力を著しく妥協することなく、大規模なデータセットで訓練することができる。
論文 参考訳(メタデータ) (2024-11-01T21:11:48Z) - Towards A Flexible Accuracy-Oriented Deep Learning Module Inference Latency Prediction Framework for Adaptive Optimization Algorithms [0.49157446832511503]
本稿では,ディープラーニングモジュール推論遅延予測フレームワークを提案する。
DNNモジュールごとに複数のRMをトレーニングするために、カスタマイズ可能な入力パラメータのセットをホストする。
トレーニングされたRMのセットを自動的に選択し、全体的な予測精度が最高になる。
論文 参考訳(メタデータ) (2023-12-11T15:15:48Z) - Randomized Polar Codes for Anytime Distributed Machine Learning [66.46612460837147]
本稿では,低速な計算ノードに対して堅牢で,線形演算の近似計算と精度の両立が可能な分散コンピューティングフレームワークを提案する。
本稿では,復号化のための計算複雑性を低く保ちながら,実数値データを扱うための逐次復号アルゴリズムを提案する。
大規模行列乗算やブラックボックス最適化など,様々な文脈において,このフレームワークの潜在的な応用を実証する。
論文 参考訳(メタデータ) (2023-09-01T18:02:04Z) - Efficient Convex Algorithms for Universal Kernel Learning [46.573275307034336]
カーネルの理想的な集合: 線形パラメータ化(トラクタビリティ)を認める; すべてのカーネルの集合に密着する(正確性)。
従来のカーネル最適化アルゴリズムは分類に限られており、計算に複雑なセミデフィニティプログラミング(SDP)アルゴリズムに依存していた。
本稿では,従来のSDP手法と比較して計算量を大幅に削減するSVD-QCQPQPアルゴリズムを提案する。
論文 参考訳(メタデータ) (2023-04-15T04:57:37Z) - RISE-SLAM: A Resource-aware Inverse Schmidt Estimator for SLAM [7.388000129690679]
視覚-慣性同時ローカライズ・マッピング(SLAM)のためのRISE-SLAMアルゴリズムを提案する。
線形メモリ要件と調整可能な処理コストを有する情報領域に一貫した新しい近似手法を導出する。
特に、リソースを意識した逆シュミット推定器(RISE)は、計算効率のトレーディング推定精度を実現する。
論文 参考訳(メタデータ) (2020-11-23T21:10:32Z) - Bayesian Optimization with Machine Learning Algorithms Towards Anomaly
Detection [66.05992706105224]
本稿では,ベイズ最適化手法を用いた効果的な異常検出フレームワークを提案する。
ISCX 2012データセットを用いて検討したアルゴリズムの性能を評価する。
実験結果から, 精度, 精度, 低コストアラームレート, リコールの観点から, 提案手法の有効性が示された。
論文 参考訳(メタデータ) (2020-08-05T19:29:35Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。