論文の概要: HATSolver: Learning Groebner Bases with Hierarchical Attention Transformers
- arxiv url: http://arxiv.org/abs/2512.14722v1
- Date: Tue, 09 Dec 2025 11:34:28 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-12-18 17:06:26.69044
- Title: HATSolver: Learning Groebner Bases with Hierarchical Attention Transformers
- Title(参考訳): HATSolver:階層型アテンショントランスを用いたGroebnerベース学習
- Authors: Mohamed Malhou, Ludovic Perret, Kristin Lauter,
- Abstract要約: NeurIPS 2024で、KeraらはGroebnerベースの計算にトランスフォーマーを導入した。
本稿では,階層型注意変換器(HAT)を用いて,Groebner基底を用いた方程式系の解法を提案する。
- 参考スコア(独自算出の注目度): 0.9722250595763385
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: At NeurIPS 2024, Kera et al. introduced the use of transformers for computing Groebner bases, a central object in computer algebra with numerous practical applications. In this paper, we improve this approach by applying Hierarchical Attention Transformers (HATs) to solve systems of multivariate polynomial equations via Groebner bases computation. The HAT architecture incorporates a tree-structured inductive bias that enables the modeling of hierarchical relationships present in the data and thus achieves significant computational savings compared to conventional flat attention models. We generalize to arbitrary depths and include a detailed computational cost analysis. Combined with curriculum learning, our method solves instances that are much larger than those in Kera et al. (2024 Learning to compute Groebner bases)
- Abstract(参考訳): NeurIPS 2024で、KeraらはGroebnerベースを計算するためのトランスフォーマーを導入した。
本稿では,階層型注意変換器(HAT)を用いて,Groebner基底計算による多変量多項式方程式の解法を提案する。
HATアーキテクチャは、データに存在する階層的関係のモデリングを可能にする木構造的帰納バイアスを取り入れており、従来のフラットアテンションモデルと比較して計算の大幅な削減を実現している。
我々は任意の深さに一般化し、詳細な計算コスト分析を含む。
カリキュラム学習と組み合わせて,Kera et al(Groebnerベースを計算するための2024年の学習)よりもはるかに大きい問題を解く。
関連論文リスト
- DaCe AD: Unifying High-Performance Automatic Differentiation for Machine Learning and Scientific Computing [54.73410106410609]
この研究は、コード修正を必要としない汎用的で効率的な自動微分エンジンであるDaCe ADを提示する。
DaCe ADは、新しいILPベースのアルゴリズムを使用して、記憶と再計算の間のトレードオフを最適化し、与えられたメモリ制約内で最大性能を達成する。
論文 参考訳(メタデータ) (2025-09-02T11:09:45Z) - Discovering Hidden Algebraic Structures via Transformers with Rank-Aware Beam GRPO [0.7885422274206872]
我々は,問題複雑性のきめ細かい制御が可能な合成データ生成パイプラインを開発した。
第二に、教師付き学習を通してトランスフォーマーモデルを訓練し、スケーリング行動と一般化可能性を含む4つの重要な次元にわたって評価する。
第3に,厳密な代数問題に適したランク対応強化学習法であるビーム群相対ポリシー(BGRPO)を提案する。
論文 参考訳(メタデータ) (2025-08-21T17:58:50Z) - The Geometry of LLM Quantization: GPTQ as Babai's Nearest Plane Algorithm [46.167267094420644]
GPTQは古典的最近ベクトル問題に対するババイの最も近い平面アルゴリズムと数学的に同一であることを示す。
我々は、クリッピングを回避し、元のGPTQより優れるポストトレーニング量子化法を設計する。
論文 参考訳(メタデータ) (2025-07-24T16:22:18Z) - Geometric Generality of Transformer-Based Gröbner Basis Computation [0.0]
本稿では,変換器を用いたGr"オブザーバ基底の計算について述べる。
提案アルゴリズムが生成したデータセットは十分汎用的であることを示す。
また,理想的なジェネレータのデータセットを体系的に構築する拡張一般化アルゴリズムを提案する。
論文 参考訳(メタデータ) (2025-04-16T20:01:00Z) - Learning to Compute Gröbner Bases [3.8214695776749013]
本稿では,トランスフォーマーを用いたGr"オブザーバベース学習について,初めて述べる。
トレーニングには、システムの多くのペアと関連するGr"オブナーベースが必要です。
本稿では,トークンを連続バイアスで処理し,語彙集合の成長を回避するためのハイブリッド入力を提案する。
論文 参考訳(メタデータ) (2023-11-21T11:54:21Z) - An Efficient Algorithm for Clustered Multi-Task Compressive Sensing [60.70532293880842]
クラスタ化マルチタスク圧縮センシングは、複数の圧縮センシングタスクを解決する階層モデルである。
このモデルに対する既存の推論アルゴリズムは計算コストが高く、高次元ではうまくスケールしない。
本稿では,これらの共分散行列を明示的に計算する必要をなくし,モデル推論を大幅に高速化するアルゴリズムを提案する。
論文 参考訳(メタデータ) (2023-09-30T15:57:14Z) - CORE: Common Random Reconstruction for Distributed Optimization with
Provable Low Communication Complexity [110.50364486645852]
コミュニケーションの複雑さは、トレーニングをスピードアップし、マシン番号をスケールアップする上で、大きなボトルネックになっています。
本稿では,機械間で送信される情報を圧縮するための共通Om REOmを提案する。
論文 参考訳(メタデータ) (2023-09-23T08:45:27Z) - A Recursively Recurrent Neural Network (R2N2) Architecture for Learning
Iterative Algorithms [64.3064050603721]
本研究では,リカレントニューラルネットワーク (R2N2) にランゲ・クッタニューラルネットワークを一般化し,リカレントニューラルネットワークを最適化した反復アルゴリズムの設計を行う。
本稿では, 線形方程式系に対するクリロフ解法, 非線形方程式系に対するニュートン・クリロフ解法, 常微分方程式に対するルンゲ・クッタ解法と類似の繰り返しを計算問題クラスの入力・出力データに対して提案した超構造内における重みパラメータの正規化について述べる。
論文 参考訳(メタデータ) (2022-11-22T16:30:33Z) - Characterizing Intrinsic Compositionality in Transformers with Tree
Projections [72.45375959893218]
トランスのようなニューラルモデルは、入力の異なる部分間で情報を任意にルーティングすることができる。
3つの異なるタスクに対するトランスフォーマーは、トレーニングの過程でより木のようなものになることを示す。
これらの木はモデル挙動を予測し、より木のようなモデルは構成的一般化のテストにおいてより良く一般化する。
論文 参考訳(メタデータ) (2022-11-02T17:10:07Z) - Multiparameter Persistent Homology-Generic Structures and Quantum
Computing [0.0]
本稿では、トポロジカルデータ解析における持続的ホモロジーの研究への可換代数の応用について述べる。
このような分解能の一般的な構造と分類空間は、数十年にわたる研究結果を用いて研究されている。
論文 参考訳(メタデータ) (2022-10-20T17:30:20Z) - On Algebraic Constructions of Neural Networks with Small Weights [21.915057426589748]
神経ゲートの重みサイズ,回路サイズ,深さのトレードオフについて検討した。
具体的には、任意の係数を持つ1つの線型方程式が与えられたとき、より小さい(一定の)係数を持つ線形方程式系を用いてそれを表現したい。
EQUALITY関数を計算するために,定数重み付き最適サイズ行列を明示的に構築する。
我々はComparISON関数を計算するために最もよく知られたウェイトサイズ(線形)行列の存在を証明した。
論文 参考訳(メタデータ) (2022-05-17T00:09:23Z) - Generalized Matrix Factorization: efficient algorithms for fitting
generalized linear latent variable models to large data arrays [62.997667081978825]
一般化線形潜在変数モデル(GLLVM)は、そのような因子モデルを非ガウス応答に一般化する。
GLLVMのモデルパラメータを推定する現在のアルゴリズムは、集約的な計算を必要とし、大規模なデータセットにスケールしない。
本稿では,GLLVMを高次元データセットに適用するための新しい手法を提案する。
論文 参考訳(メタデータ) (2020-10-06T04:28:19Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。