論文の概要: Data-driven configuration tuning of glmnet to balance accuracy and computation time
- arxiv url: http://arxiv.org/abs/2602.17922v1
- Date: Fri, 20 Feb 2026 00:58:59 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-23 18:01:41.196021
- Title: Data-driven configuration tuning of glmnet to balance accuracy and computation time
- Title(参考訳): glmnetのデータ駆動構成チューニングによる精度と計算時間のバランス
- Authors: Shuhei Muroya, Kei Hirose,
- Abstract要約: glmnetは、その計算効率からラッソ推定に広く採用されているRパッケージである。
glmnetは人気があるにもかかわらず、不適切なデフォルト設定のため、真のものとはかなり異なるソリューションをもたらすことがある。
本稿では、精度と計算効率のトレードオフをバランスさせて構成を最適化する統合データ駆動フレームワークを提案する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: glmnet is a widely adopted R package for lasso estimation due to its computational efficiency. Despite its popularity, glmnet sometimes yields solutions that are substantially different from the true ones because of the inappropriate default configuration of the algorithm. The accuracy of the obtained solutions can be improved by appropriately tuning the configuration. However, improving accuracy typically increases computational time, resulting in a trade-off between accuracy and computational efficiency. Therefore, it is essential to establish a systematic approach to determine appropriate configuration. To address this need, we propose a unified data-driven framework specifically designed to optimize the configuration by balancing the trade-off between accuracy and computational efficiency. We generate large-scale simulated datasets and apply glmnet under various configurations to obtain accuracy and computation time. Based on these results, we construct neural networks that predict accuracy and computation time from data characteristics and configuration. Given a new dataset, our framework uses the neural networks to explore the configuration space and derive a Pareto front that represents the trade-off between accuracy and computational cost. This front allows us to automatically identify the configuration that maximize accuracy under a user-specified time constraint. The proposed method is implemented in the R package 'glmnetconf', available at https://github.com/Shuhei-Muroya/glmnetconf.
- Abstract(参考訳): glmnetは、その計算効率からラッソ推定に広く採用されているRパッケージである。
glmnetは人気があるにもかかわらず、アルゴリズムの不適切なデフォルト設定のため、真のものとはかなり異なる解が得られることがある。
構成を適切に調整することにより、得られた解の精度を向上させることができる。
しかし、精度の向上は典型的には計算時間を増大させ、精度と計算効率のトレードオフをもたらす。
したがって、適切な構成を決定するための体系的なアプローチを確立することが不可欠である。
このニーズに対処するため、我々は、精度と計算効率のトレードオフをバランスさせて構成を最適化するために設計された統一されたデータ駆動フレームワークを提案する。
我々は、大規模なシミュレーションデータセットを生成し、様々な構成でglmnetを適用し、精度と計算時間を得る。
これらの結果に基づいて,データ特性と構成から精度と計算時間を予測できるニューラルネットワークを構築した。
新しいデータセットが与えられた場合、我々のフレームワークはニューラルネットワークを使用して構成空間を探索し、精度と計算コストのトレードオフを表すParetoフロントを導出します。
このフロントでは、ユーザが指定した時間制約の下で精度を最大化する設定を自動的に特定できます。
提案手法はRパッケージ'glmnetconf'で実装されており、https://github.com/Shuhei-Muroya/glmnetconfで利用可能である。
関連論文リスト
- Scalable Gaussian process modeling of parametrized spatio-temporal fields [2.005299372367689]
固定時間領域やパラメータ時間領域上でのパラメータ化方程式の学習のためのスケーラブルなフレームワークを開発する。
提案手法の鍵となる特徴は,後部平均と基本的に同じ計算コストで,後部分散の効率的な計算である。
結果は、特に下流タスクに不確実性推定を必要とする場合、データ駆動サロゲートモデリングの効果的なツールとして提案フレームワークを確立した。
論文 参考訳(メタデータ) (2026-02-27T20:16:21Z) - Precision Autotuning for Linear Solvers via Reinforcement Learning [0.0]
本稿では,線形解法の適応的精度調整のための強化学習フレームワークを提案する。
本稿では,2次精度のベースラインに匹敵する精度を維持しながら,計算コストを削減できることを示す。
これはRLによる精度自動チューニングに関する最初の研究であり、目に見えないデータセット上で検証されている。
論文 参考訳(メタデータ) (2026-01-02T15:59:42Z) - Precision Neural Networks: Joint Graph And Relational Learning [36.05842226689587]
共分散ニューラルネットワーク(VNN)は、データの共分散行列によって決定されたグラフ上で畳み込みを行う。
精度行列(逆共分散)の精度ニューラルネットワーク(PNN)について検討する。
我々は,ネットワークパラメータと精度行列を協調的に学習する最適化問題を定式化し,交互に最適化することで解決する。
論文 参考訳(メタデータ) (2025-09-18T10:22:05Z) - Computation-Aware Gaussian Processes: Model Selection And Linear-Time Inference [55.150117654242706]
我々は、1.8万のデータポイントでトレーニングされた計算対応GPのモデル選択が、1つのGPU上で数時間以内に可能であることを示す。
この研究の結果、ガウス過程は、不確実性を定量化する能力を著しく妥協することなく、大規模なデータセットで訓練することができる。
論文 参考訳(メタデータ) (2024-11-01T21:11:48Z) - Scaling LLM Inference with Optimized Sample Compute Allocation [56.524278187351925]
我々は、異なる推論構成の最適な混合を見つけるアルゴリズムであるOSCAを提案する。
実験の結果,学習した混合アロケーションでは,最高の単一構成よりも精度がよいことがわかった。
OSCAはシングルターンタスク以外のエージェント処理にも有効であることが示されており、デフォルト設定よりも3倍少ない計算でSWE-Benchの精度が向上している。
論文 参考訳(メタデータ) (2024-10-29T19:17:55Z) - Towards A Flexible Accuracy-Oriented Deep Learning Module Inference Latency Prediction Framework for Adaptive Optimization Algorithms [0.49157446832511503]
本稿では,ディープラーニングモジュール推論遅延予測フレームワークを提案する。
DNNモジュールごとに複数のRMをトレーニングするために、カスタマイズ可能な入力パラメータのセットをホストする。
トレーニングされたRMのセットを自動的に選択し、全体的な予測精度が最高になる。
論文 参考訳(メタデータ) (2023-12-11T15:15:48Z) - Randomized Polar Codes for Anytime Distributed Machine Learning [66.46612460837147]
本稿では,低速な計算ノードに対して堅牢で,線形演算の近似計算と精度の両立が可能な分散コンピューティングフレームワークを提案する。
本稿では,復号化のための計算複雑性を低く保ちながら,実数値データを扱うための逐次復号アルゴリズムを提案する。
大規模行列乗算やブラックボックス最適化など,様々な文脈において,このフレームワークの潜在的な応用を実証する。
論文 参考訳(メタデータ) (2023-09-01T18:02:04Z) - Efficient Convex Algorithms for Universal Kernel Learning [46.573275307034336]
カーネルの理想的な集合: 線形パラメータ化(トラクタビリティ)を認める; すべてのカーネルの集合に密着する(正確性)。
従来のカーネル最適化アルゴリズムは分類に限られており、計算に複雑なセミデフィニティプログラミング(SDP)アルゴリズムに依存していた。
本稿では,従来のSDP手法と比較して計算量を大幅に削減するSVD-QCQPQPアルゴリズムを提案する。
論文 参考訳(メタデータ) (2023-04-15T04:57:37Z) - RISE-SLAM: A Resource-aware Inverse Schmidt Estimator for SLAM [7.388000129690679]
視覚-慣性同時ローカライズ・マッピング(SLAM)のためのRISE-SLAMアルゴリズムを提案する。
線形メモリ要件と調整可能な処理コストを有する情報領域に一貫した新しい近似手法を導出する。
特に、リソースを意識した逆シュミット推定器(RISE)は、計算効率のトレーディング推定精度を実現する。
論文 参考訳(メタデータ) (2020-11-23T21:10:32Z) - Bayesian Optimization with Machine Learning Algorithms Towards Anomaly
Detection [66.05992706105224]
本稿では,ベイズ最適化手法を用いた効果的な異常検出フレームワークを提案する。
ISCX 2012データセットを用いて検討したアルゴリズムの性能を評価する。
実験結果から, 精度, 精度, 低コストアラームレート, リコールの観点から, 提案手法の有効性が示された。
論文 参考訳(メタデータ) (2020-08-05T19:29:35Z) - APQ: Joint Search for Network Architecture, Pruning and Quantization
Policy [49.3037538647714]
本稿では,リソース制約のあるハードウェア上での効率的なディープラーニング推論のためのAPQを提案する。
ニューラルアーキテクチャ、プルーニングポリシー、量子化ポリシーを別々に検索する従来の方法とは異なり、我々はそれらを共同で最適化する。
同じ精度で、APQはMobileNetV2+HAQよりもレイテンシ/エネルギーを2倍/1.3倍削減する。
論文 参考訳(メタデータ) (2020-06-15T16:09:17Z) - FedPD: A Federated Learning Framework with Optimal Rates and Adaptivity
to Non-IID Data [59.50904660420082]
フェデレートラーニング(FL)は、分散データから学ぶための一般的なパラダイムになっています。
クラウドに移行することなく、さまざまなデバイスのデータを効果的に活用するために、Federated Averaging(FedAvg)などのアルゴリズムでは、"Computation then aggregate"(CTA)モデルを採用している。
論文 参考訳(メタデータ) (2020-05-22T23:07:42Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。