論文の概要: SymMaP: Improving Computational Efficiency in Linear Solvers through Symbolic Preconditioning
- arxiv url: http://arxiv.org/abs/2510.24170v1
- Date: Tue, 28 Oct 2025 08:25:03 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-29 15:35:36.902808
- Title: SymMaP: Improving Computational Efficiency in Linear Solvers through Symbolic Preconditioning
- Title(参考訳): SymMaP:シンボリックプレコンディショニングによる線形解の計算効率の向上
- Authors: Hong Wang, Jie Wang, Minghao Ma, Haoran Shao, Haoyang Liu,
- Abstract要約: シンボリックマトリックスプレコンディショニング(SymMaP)は、プリコンディショニングパラメータの効率的なシンボリック表現を学習する。
我々はニューラルネットワークを用いて、最適なパラメータを正確に予測できる表現のために高次元離散空間を探索する。
実験の結果、SymMaPは様々なベンチマークで従来の戦略を一貫して上回ります。
- 参考スコア(独自算出の注目度): 5.546260420622416
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Matrix preconditioning is a critical technique to accelerate the solution of linear systems, where performance heavily depends on the selection of preconditioning parameters. Traditional parameter selection approaches often define fixed constants for specific scenarios. However, they rely on domain expertise and fail to consider the instance-wise features for individual problems, limiting their performance. In contrast, machine learning (ML) approaches, though promising, are hindered by high inference costs and limited interpretability. To combine the strengths of both approaches, we propose a symbolic discovery framework-namely, Symbolic Matrix Preconditioning (SymMaP)-to learn efficient symbolic expressions for preconditioning parameters. Specifically, we employ a neural network to search the high-dimensional discrete space for expressions that can accurately predict the optimal parameters. The learned expression allows for high inference efficiency and excellent interpretability (expressed in concise symbolic formulas), making it simple and reliable for deployment. Experimental results show that SymMaP consistently outperforms traditional strategies across various benchmarks.
- Abstract(参考訳): 行列プレコンディショニング(Matrix preconditioning)は線形システムの解を高速化する重要な手法であり、性能はプレコンディショニングパラメータの選択に大きく依存する。
伝統的なパラメータ選択アプローチは、しばしば特定のシナリオに対する固定定数を定義する。
しかし、それらはドメインの専門知識に依存しており、個々の問題に対するインスタンスワイズ機能を考慮せず、パフォーマンスを制限します。
対照的に、機械学習(ML)アプローチは有望ではあるが、高い推論コストと限定的な解釈可能性によって妨げられている。
両手法の強みを組み合わせるため,前処理パラメータに対する効率的な記号表現を学習するために,シンボリック行列プレコンディショニング(SymMaP)という記号発見フレームワークを提案する。
具体的には、ニューラルネットワークを用いて、最適なパラメータを正確に予測できる表現のための高次元離散空間を探索する。
学習された式は、高い推論効率と優れた解釈可能性(簡潔な記号式で表される)を可能にし、デプロイが簡単で信頼性が高い。
実験の結果、SymMaPは様々なベンチマークで従来の戦略を一貫して上回ります。
関連論文リスト
- PROMISE: Preconditioned Stochastic Optimization Methods by Incorporating Scalable Curvature Estimates [17.777466668123886]
PROMISE ($textbfPr$econditioned $textbfO$ptimization $textbfM$ethods by $textbfI$ncorporating $textbfS$calable Curvature $textbfE$stimates)はスケッチベースの事前条件勾配アルゴリズムである。
PROMISEには、SVRG、SAGA、およびKatyushaのプレコンディション版が含まれている。
論文 参考訳(メタデータ) (2023-09-05T07:49:10Z) - Numerical Optimizations for Weighted Low-rank Estimation on Language
Model [73.12941276331316]
Singular value decomposition (SVD) は、より小さい行列でターゲット行列を近似する最も一般的な圧縮手法の1つである。
標準SVDは行列内のパラメータを同じ重要性で扱うが、これは単純だが非現実的な仮定である。
本手法は,ニューラルベース言語モデルにおいて,現在のSOTA法よりも優れた性能を示す。
論文 参考訳(メタデータ) (2022-11-02T00:58:02Z) - MARS: Meta-Learning as Score Matching in the Function Space [79.73213540203389]
本稿では,一連の関連するデータセットから帰納バイアスを抽出する手法を提案する。
機能的ベイズニューラルネットワーク推論を用いて、前者をプロセスとみなし、関数空間で推論を行う。
本手法は,データ生成プロセスのスコア関数をメタラーニングすることにより,複雑な事前知識をシームレスに獲得し,表現することができる。
論文 参考訳(メタデータ) (2022-10-24T15:14:26Z) - Sparse high-dimensional linear regression with a partitioned empirical
Bayes ECM algorithm [62.997667081978825]
疎高次元線形回帰に対する計算効率が高く強力なベイズ的手法を提案する。
パラメータに関する最小の事前仮定は、プラグイン経験的ベイズ推定(英語版)を用いて用いられる。
提案手法はRパッケージプローブに実装されている。
論文 参考訳(メタデータ) (2022-09-16T19:15:50Z) - Making Linear MDPs Practical via Contrastive Representation Learning [101.75885788118131]
マルコフ決定過程(MDP)における次元性の呪いに、低ランク表現を利用することで対処することが一般的である。
本稿では,効率的な表現学習を可能にしつつ,正規化を自動的に保証する線形MDPの代替的定義について考察する。
いくつかのベンチマークにおいて、既存の最先端モデルベースおよびモデルフリーアルゴリズムよりも優れた性能を示す。
論文 参考訳(メタデータ) (2022-07-14T18:18:02Z) - HyperImpute: Generalized Iterative Imputation with Automatic Model
Selection [77.86861638371926]
カラムワイズモデルを適応的かつ自動的に構成するための一般化反復計算フレームワークを提案する。
既製の学習者,シミュレータ,インターフェースを備えた具体的な実装を提供する。
論文 参考訳(メタデータ) (2022-06-15T19:10:35Z) - Symbolic Regression by Exhaustive Search: Reducing the Search Space
Using Syntactical Constraints and Efficient Semantic Structure Deduplication [2.055204980188575]
シンボリック回帰は、モデル構造に関する事前の知識が得られない産業シナリオにおいて、強力なシステム識別技術である。
この章では、これらの問題に対処するために特別に設計された決定論的シンボリック回帰アルゴリズムを紹介します。
全ての可能なモデルの有限列挙は、構造的制約と意味論的に等価な解を検出するキャッシング機構によって保証される。
論文 参考訳(メタデータ) (2021-09-28T17:47:51Z) - Meta-Learning for Symbolic Hyperparameter Defaults [2.928016570228877]
機械学習(ML)におけるハイパーパラメータ最適化は、データから最適なアルゴリズム構成を経験的に学習する問題を扱う。
本稿では,メタラーン記号のデフォルトパラメータ設定に対するゼロショット法を提案し,データセットの特性の観点から表現する。
これにより、MLアルゴリズムのより高速で、なおデータ依存的な構成が可能になる。
論文 参考訳(メタデータ) (2021-06-10T14:20:28Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。