論文の概要: Precision Autotuning for Linear Solvers via Reinforcement Learning
- arxiv url: http://arxiv.org/abs/2601.00728v2
- Date: Mon, 05 Jan 2026 03:25:36 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-06 14:31:43.847487
- Title: Precision Autotuning for Linear Solvers via Reinforcement Learning
- Title(参考訳): 強化学習による線形解の高精度自動調整
- Authors: Erin Carson, Xinye Chen,
- Abstract要約: 本稿では,線形解法の適応的精度調整のための強化学習フレームワークを提案する。
本稿では,2次精度のベースラインに匹敵する精度を維持しながら,計算コストを削減できることを示す。
これはRLによる精度自動チューニングに関する最初の研究であり、目に見えないデータセット上で検証されている。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We propose a reinforcement learning (RL) framework for adaptive precision tuning of linear solvers, and can be extended to general algorithms. The framework is formulated as a contextual bandit problem and solved using incremental action-value estimation with a discretized state space to select optimal precision configurations for computational steps, balancing precision and computational efficiency. To verify its effectiveness, we apply the framework to iterative refinement for solving linear systems $Ax = b$. In this application, our approach dynamically chooses precisions based on calculated features from the system. In detail, a Q-table maps discretized features (e.g., approximate condition number and matrix norm)to actions (chosen precision configurations for specific steps), optimized via an epsilon-greedy strategy to maximize a multi-objective reward balancing accuracy and computational cost. Empirical results demonstrate effective precision selection, reducing computational cost while maintaining accuracy comparable to double-precision baselines. The framework generalizes to diverse out-of-sample data and offers insight into utilizing RL precision selection for other numerical algorithms, advancing mixed-precision numerical methods in scientific computing. To the best of our knowledge, this is the first work on precision autotuning with RL and verified on unseen datasets.
- Abstract(参考訳): 本稿では,線形解法の適応的精度調整のための強化学習(RL)フレームワークを提案する。
このフレームワークは文脈的帯域幅問題として定式化され、離散状態空間を用いてインクリメンタルな行動値推定を用いて計算ステップの最適精度設定を選択し、精度と計算効率のバランスをとる。
有効性を検証するために、このフレームワークを線形系を解くための反復的洗練に応用する。
本アプリケーションでは,システムから計算された特徴に基づいて,動的に精度を選択する。
詳細は、Qテーブルが離散化された特徴(例えば、近似条件数、行列ノルム)を、エプシロングレーディ戦略によって最適化され、多目的報酬バランスの精度と計算コストを最大化する。
実験の結果、有効精度の選択、計算コストの削減、そして2倍精度ベースラインに匹敵する精度の維持が示された。
このフレームワークは、様々なサンプル外データに一般化し、RL精度の選択を他の数値アルゴリズムに活用するための洞察を与え、科学計算における混合精度数値法を推し進める。
我々の知る限りでは、これはRLで精度の高いオートチューニングを行い、目に見えないデータセットで検証する最初の試みである。
関連論文リスト
- Scalable Gaussian process modeling of parametrized spatio-temporal fields [2.005299372367689]
固定時間領域やパラメータ時間領域上でのパラメータ化方程式の学習のためのスケーラブルなフレームワークを開発する。
提案手法の鍵となる特徴は,後部平均と基本的に同じ計算コストで,後部分散の効率的な計算である。
結果は、特に下流タスクに不確実性推定を必要とする場合、データ駆動サロゲートモデリングの効果的なツールとして提案フレームワークを確立した。
論文 参考訳(メタデータ) (2026-02-27T20:16:21Z) - Data-driven configuration tuning of glmnet to balance accuracy and computation time [0.0]
glmnetは、その計算効率からラッソ推定に広く採用されているRパッケージである。
glmnetは人気があるにもかかわらず、不適切なデフォルト設定のため、真のものとはかなり異なるソリューションをもたらすことがある。
本稿では、精度と計算効率のトレードオフをバランスさせて構成を最適化する統合データ駆動フレームワークを提案する。
論文 参考訳(メタデータ) (2026-02-20T00:58:59Z) - Mixed-Precision Conjugate Gradient Solvers with RL-Driven Precision Tuning [0.0]
本稿では,数値精度を動的に最適化する新しい強化学習(RL)フレームワークを提案する。
我々はQ-ラーニングを用いてキー操作に精度レベルを適応的に割り当て、計算効率と数値精度の最適なバランスをとる。
その結果, 解法の性能向上におけるRLの有効性が示され, 混合精度数値法へのRLの適用が初めて確認された。
論文 参考訳(メタデータ) (2025-04-19T11:35:03Z) - Computation-Aware Gaussian Processes: Model Selection And Linear-Time Inference [55.150117654242706]
我々は、1.8万のデータポイントでトレーニングされた計算対応GPのモデル選択が、1つのGPU上で数時間以内に可能であることを示す。
この研究の結果、ガウス過程は、不確実性を定量化する能力を著しく妥協することなく、大規模なデータセットで訓練することができる。
論文 参考訳(メタデータ) (2024-11-01T21:11:48Z) - Stochastic Optimization for Non-convex Problem with Inexact Hessian
Matrix, Gradient, and Function [99.31457740916815]
信頼領域(TR)と立方体を用いた適応正則化は、非常に魅力的な理論的性質を持つことが証明されている。
TR法とARC法はヘッセン関数,勾配関数,関数値の非コンパクトな計算を同時に行うことができることを示す。
論文 参考訳(メタデータ) (2023-10-18T10:29:58Z) - Constrained Optimization via Exact Augmented Lagrangian and Randomized
Iterative Sketching [55.28394191394675]
等式制約付き非線形非IBS最適化問題に対する適応的不正確なニュートン法を開発した。
ベンチマーク非線形問題,LVMのデータによる制約付きロジスティック回帰,PDE制約問題において,本手法の優れた性能を示す。
論文 参考訳(メタデータ) (2023-05-28T06:33:37Z) - Efficient Convex Algorithms for Universal Kernel Learning [46.573275307034336]
カーネルの理想的な集合: 線形パラメータ化(トラクタビリティ)を認める; すべてのカーネルの集合に密着する(正確性)。
従来のカーネル最適化アルゴリズムは分類に限られており、計算に複雑なセミデフィニティプログラミング(SDP)アルゴリズムに依存していた。
本稿では,従来のSDP手法と比較して計算量を大幅に削減するSVD-QCQPQPアルゴリズムを提案する。
論文 参考訳(メタデータ) (2023-04-15T04:57:37Z) - Nearly Minimax Optimal Reinforcement Learning for Linear Markov Decision
Processes [80.89852729380425]
そこで本研究では,最小限の最小残差である$tilde O(dsqrtH3K)$を計算効率よく実現したアルゴリズムを提案する。
我々の研究は線形 MDP を用いた最適 RL に対する完全な答えを提供する。
論文 参考訳(メタデータ) (2022-12-12T18:58:59Z) - Wasserstein Distributionally Robust Estimation in High Dimensions: Performance Analysis and Optimal Hyperparameter Tuning [2.4578723416255754]
分散ロバスト最適化(DRO)は不確実性の下での見積もりの強力なフレームワークとなっている。
本稿では,DROに基づく線形回帰法を提案し,その中心的問題,すなわちロバストネス半径を最適に選択する方法を提案する。
本手法はクロスバリデーションと同じ効果を示すが,計算コストのごく一部で実現可能であることを示す。
論文 参考訳(メタデータ) (2022-06-27T13:02:59Z) - Dual Optimization for Kolmogorov Model Learning Using Enhanced Gradient
Descent [8.714458129632158]
コルモゴロフモデル(コルモゴロフモデル、英: Kolmogorov model、KM)は、確率変数の集合の基本的な確率構造を学ぶための解釈可能で予測可能な表現手法である。
正規化双対最適化と拡張勾配降下法(GD)を併用した計算スケーラブルなKM学習アルゴリズムを提案する。
提案したKM学習アルゴリズムを用いた論理的関係マイニングの精度は80%以上である。
論文 参考訳(メタデータ) (2021-07-11T10:33:02Z) - Square Root Bundle Adjustment for Large-Scale Reconstruction [56.44094187152862]
QR分解によるランドマーク変数のnullspace marginalizationに依存するバンドル調整問題の新たな定式化を提案する。
平方根束調整と呼ばれる私たちのアプローチは、一般的に使用されるSchur補完トリックと代数的に等価です。
BALデータセットを用いた実世界での実験では、提案されたソルバが単一の精度でも平均的等しく正確なソリューションで達成できることを示す。
論文 参考訳(メタデータ) (2021-03-02T16:26:20Z) - Global Optimization of Gaussian processes [52.77024349608834]
少数のデータポイントで学習したガウス過程を訓練した空間定式化を提案する。
このアプローチはまた、より小さく、計算的にもより安価なサブソルバを低いバウンディングに導く。
提案手法の順序の順序による時間収束を,総じて低減する。
論文 参考訳(メタデータ) (2020-05-21T20:59:11Z) - Boosting Algorithms for Estimating Optimal Individualized Treatment
Rules [4.898659895355356]
最適な個別化処理規則を推定するための非パラメトリックアルゴリズムを提案する。
提案アルゴリズムは機械学習文学において最も強力なアルゴリズムの1つであるXGBoostアルゴリズムに基づいている。
論文 参考訳(メタデータ) (2020-01-31T22:26:38Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。