論文の概要: Learning Fast Monomial Orders for Gröbner Basis Computations
- arxiv url: http://arxiv.org/abs/2602.02972v1
- Date: Tue, 03 Feb 2026 01:17:18 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-04 18:37:15.171746
- Title: Learning Fast Monomial Orders for Gröbner Basis Computations
- Title(参考訳): Gröbner基底計算に対する高速単項順序の学習
- Authors: R. Caleb Bunch, Alperen A. Ergür, Melika Golestani, Jessie Tong, Malia Walewski, Yunus E. Zeytuncu,
- Abstract要約: Grbner基底計算は方程式のシステムを解くための標準エンジンである。
単項順序のほぼ連続にもかかわらず、ほとんどの実装はGrevLexのような静的に依存している。
本稿では,単項順序の選択を許容順序空間上の強化学習問題とすることで,このギャップに対処する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The efficiency of Gröbner basis computation, the standard engine for solving systems of polynomial equations, depends on the choice of monomial ordering. Despite a near-continuum of possible monomial orders, most implementations rely on static heuristics such as GrevLex, guided primarily by expert intuition. We address this gap by casting the selection of monomial orderings as a reinforcement learning problem over the space of admissible orderings. Our approach leverages domain-informed reward signals that accurately reflect the computational cost of Gröbner basis computations and admits efficient Monte Carlo estimation. Experiments on benchmark problems from systems biology and computer vision show that the resulting learned policies consistently outperform standard heuristics, yielding substantial reductions in computational cost. Moreover, we find that these policies resist distillation into simple interpretable models, providing empirical evidence that deep reinforcement learning allows the agents to exploit non-linear geometric structure beyond the scope of traditional heuristics.
- Abstract(参考訳): Gröbner基底計算の効率は、多項式方程式の系を解く標準的なエンジンであり、単項順序付けの選択に依存する。
単数順序のほぼ連続にもかかわらず、ほとんどの実装は、主に専門家の直観によって導かれるGrevLexのような静的ヒューリスティックに依存している。
本稿では,単項順序の選択を許容順序空間上の強化学習問題とすることで,このギャップに対処する。
提案手法では,Gröbner基底計算の計算コストを正確に反映し,効率的なモンテカルロ推定を実現する。
システム生物学とコンピュータビジョンのベンチマーク問題に関する実験は、学習されたポリシーが標準ヒューリスティックよりも一貫して優れており、計算コストが大幅に削減されたことを示している。
さらに、これらの政策は単純な解釈可能なモデルへの蒸留に抵抗し、深層強化学習によりエージェントが従来のヒューリスティックスの範囲を超えて非線形幾何学的構造を活用できるという実証的な証拠を提供する。
関連論文リスト
- Algebraformer: A Neural Approach to Linear Systems [10.284321066857151]
本稿では,線形系の解法,特に条件が不整な解法の基本課題について検討する。
既存の空調システムの数値解法は、精度と安定性を確保するために、パラメータチューニング、プレコンディショニング、ドメイン固有の専門知識を必要とすることが多い。
本稿では,過酷な条件下でも線形システムをエンドツーエンドに解くことを学ぶトランスフォーマーベースのアーキテクチャであるAlgebraformerを提案する。
論文 参考訳(メタデータ) (2025-11-18T08:53:22Z) - Provable Benefit of Curriculum in Transformer Tree-Reasoning Post-Training [76.12556589212666]
学習後のカリキュラムは指数関数的複雑性のボトルネックを回避していることを示す。
結果のみの報酬信号の下では、強化学習の微調整は、サンプルの複雑さを高い精度で達成する。
カリキュラムを意識したクエリにより、報奨託書の呼び出しとサンプリングコストの両方を指数関数的に削減するテストタイムスケーリングの保証を確立する。
論文 参考訳(メタデータ) (2025-11-10T18:29:54Z) - Revisiting Orbital Minimization Method for Neural Operator Decomposition [19.86950069790711]
計算化学における固有値問題の解法として1990年代に提案されたインフォロビタル法(英語版)(OMM)と呼ばれる古典的最適化フレームワークを再考する。
我々は、ニューラルネットワークをトレーニングして正の半定値演算子を分解し、その実用的な利点を様々なベンチマークタスクで示すために、このフレームワークを適用した。
論文 参考訳(メタデータ) (2025-10-24T18:26:18Z) - Outcome-Based Online Reinforcement Learning: Algorithms and Fundamental Limits [58.63897489864948]
結果に基づくフィードバックによる強化学習は、根本的な課題に直面します。
適切なアクションにクレジットを割り当てるには?
本稿では,一般関数近似を用いたオンラインRLにおけるこの問題の包括的解析を行う。
論文 参考訳(メタデータ) (2025-05-26T17:44:08Z) - Algebraic Machine Learning: Learning as computing an algebraic decomposition of a task [41.94295877935867]
本稿では,学習の分析を容易にする数学を用いた抽象代数に基づく代替基盤を提案する。
このアプローチでは、タスクとデータのゴールは代数の公理として符号化され、これらの公理とそれらの論理結果のみが成立するモデルが得られる。
我々は、MNIST、FashionMNIST、CIFAR-10、医療画像などの標準データセット上でこの新しい学習原則を検証し、最適化された多層パーセプトロンに匹敵する性能を達成する。
論文 参考訳(メタデータ) (2025-02-27T10:13:42Z) - InductionBench: LLMs Fail in the Simplest Complexity Class [53.70978746199222]
大規模言語モデル(LLM)は推論において顕著に改善されている。
帰納的推論(inductive reasoning)は、観測されたデータから基礎となるルールを推測するものであり、まだ探索されていない。
本稿では, LLMの帰納的推論能力を評価するための新しいベンチマークであるインジェクションベンチを紹介する。
論文 参考訳(メタデータ) (2025-02-20T03:48:00Z) - Gradient-Based Learning of Discrete Structured Measurement Operators for
Signal Recovery [16.740247586153085]
本稿では、勾配に基づく学習を利用して離散最適化問題を解く方法について述べる。
GLODISMO (Gradient-based Learning of DIscrete Structured Measurement Operators) によるアプローチの定式化
いくつかの信号回復アプリケーションにおいて,GLODISMOの性能と柔軟性を実証的に示す。
論文 参考訳(メタデータ) (2022-02-07T18:27:08Z) - Unsupervised Ground Metric Learning using Wasserstein Eigenvectors [0.0]
主なボトルネックは、研究対象のタスクに適応すべき「基礎」コストの設計である。
本論文では,コストを入力間のペアワイズOT距離にマッピングする関数の正の固有ベクトルとして,接地コストを計算することで,正の正の答えを初めて提案する。
また,主成分分析次元の低減を行うエントロピー正則化を用いたスケーラブルな計算手法を提案する。
論文 参考訳(メタデータ) (2021-02-11T21:32:59Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。