論文の概要: HATSolver: Learning Groebner Bases with Hierarchical Attention Transformers
- arxiv url: http://arxiv.org/abs/2512.14722v1
- Date: Tue, 09 Dec 2025 11:34:28 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-12-18 17:06:26.69044
- Title: HATSolver: Learning Groebner Bases with Hierarchical Attention Transformers
- Title(参考訳): HATSolver:階層型アテンショントランスを用いたGroebnerベース学習
- Authors: Mohamed Malhou, Ludovic Perret, Kristin Lauter,
- Abstract要約: NeurIPS 2024で、KeraらはGroebnerベースの計算にトランスフォーマーを導入した。
本稿では,階層型注意変換器(HAT)を用いて,Groebner基底を用いた方程式系の解法を提案する。
- 参考スコア(独自算出の注目度): 0.9722250595763385
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: At NeurIPS 2024, Kera et al. introduced the use of transformers for computing Groebner bases, a central object in computer algebra with numerous practical applications. In this paper, we improve this approach by applying Hierarchical Attention Transformers (HATs) to solve systems of multivariate polynomial equations via Groebner bases computation. The HAT architecture incorporates a tree-structured inductive bias that enables the modeling of hierarchical relationships present in the data and thus achieves significant computational savings compared to conventional flat attention models. We generalize to arbitrary depths and include a detailed computational cost analysis. Combined with curriculum learning, our method solves instances that are much larger than those in Kera et al. (2024 Learning to compute Groebner bases)
- Abstract(参考訳): NeurIPS 2024で、KeraらはGroebnerベースを計算するためのトランスフォーマーを導入した。
本稿では,階層型注意変換器(HAT)を用いて,Groebner基底計算による多変量多項式方程式の解法を提案する。
HATアーキテクチャは、データに存在する階層的関係のモデリングを可能にする木構造的帰納バイアスを取り入れており、従来のフラットアテンションモデルと比較して計算の大幅な削減を実現している。
我々は任意の深さに一般化し、詳細な計算コスト分析を含む。
カリキュラム学習と組み合わせて,Kera et al(Groebnerベースを計算するための2024年の学習)よりもはるかに大きい問題を解く。
関連論文リスト
- DaCe AD: Unifying High-Performance Automatic Differentiation for Machine Learning and Scientific Computing [54.73410106410609]
この研究は、コード修正を必要としない汎用的で効率的な自動微分エンジンであるDaCe ADを提示する。
DaCe ADは、新しいILPベースのアルゴリズムを使用して、記憶と再計算の間のトレードオフを最適化し、与えられたメモリ制約内で最大性能を達成する。
論文 参考訳(メタデータ) (2025-09-02T11:09:45Z) - Discovering Hidden Algebraic Structures via Transformers with Rank-Aware Beam GRPO [0.7885422274206872]
我々は,問題複雑性のきめ細かい制御が可能な合成データ生成パイプラインを開発した。
第二に、教師付き学習を通してトランスフォーマーモデルを訓練し、スケーリング行動と一般化可能性を含む4つの重要な次元にわたって評価する。
第3に,厳密な代数問題に適したランク対応強化学習法であるビーム群相対ポリシー(BGRPO)を提案する。
論文 参考訳(メタデータ) (2025-08-21T17:58:50Z) - The Geometry of LLM Quantization: GPTQ as Babai's Nearest Plane Algorithm [46.167267094420644]
GPTQは古典的最近ベクトル問題に対するババイの最も近い平面アルゴリズムと数学的に同一であることを示す。
我々は、クリッピングを回避し、元のGPTQより優れるポストトレーニング量子化法を設計する。
論文 参考訳(メタデータ) (2025-07-24T16:22:18Z) - Geometric Generality of Transformer-Based Gröbner Basis Computation [0.0]
本稿では,変換器を用いたGr"オブザーバ基底の計算について述べる。
提案アルゴリズムが生成したデータセットは十分汎用的であることを示す。
また,理想的なジェネレータのデータセットを体系的に構築する拡張一般化アルゴリズムを提案する。
論文 参考訳(メタデータ) (2025-04-16T20:01:00Z) - Learning to Compute Gröbner Bases [3.8214695776749013]
本稿では,トランスフォーマーを用いたGr"オブザーバベース学習について,初めて述べる。
トレーニングには、システムの多くのペアと関連するGr"オブナーベースが必要です。
本稿では,トークンを連続バイアスで処理し,語彙集合の成長を回避するためのハイブリッド入力を提案する。
論文 参考訳(メタデータ) (2023-11-21T11:54:21Z) - A Recursively Recurrent Neural Network (R2N2) Architecture for Learning
Iterative Algorithms [64.3064050603721]
本研究では,リカレントニューラルネットワーク (R2N2) にランゲ・クッタニューラルネットワークを一般化し,リカレントニューラルネットワークを最適化した反復アルゴリズムの設計を行う。
本稿では, 線形方程式系に対するクリロフ解法, 非線形方程式系に対するニュートン・クリロフ解法, 常微分方程式に対するルンゲ・クッタ解法と類似の繰り返しを計算問題クラスの入力・出力データに対して提案した超構造内における重みパラメータの正規化について述べる。
論文 参考訳(メタデータ) (2022-11-22T16:30:33Z) - Characterizing Intrinsic Compositionality in Transformers with Tree
Projections [72.45375959893218]
トランスのようなニューラルモデルは、入力の異なる部分間で情報を任意にルーティングすることができる。
3つの異なるタスクに対するトランスフォーマーは、トレーニングの過程でより木のようなものになることを示す。
これらの木はモデル挙動を予測し、より木のようなモデルは構成的一般化のテストにおいてより良く一般化する。
論文 参考訳(メタデータ) (2022-11-02T17:10:07Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。