論文の概要: Predicting the cardinality of a reduced Gr\"obner basis
- arxiv url: http://arxiv.org/abs/2302.05364v1
- Date: Fri, 10 Feb 2023 16:33:58 GMT
- ステータス: 処理完了
- システム内更新日: 2023-02-13 15:14:41.588420
- Title: Predicting the cardinality of a reduced Gr\"obner basis
- Title(参考訳): 還元されたgr\"obner基底の濃度の予測
- Authors: Shahrzad Jamshidi, Eric Kang, and Sonja Petrovi\'c
- Abstract要約: 我々は、アンザッツニューラルネットワークモデルを用いて、二項イデアルの「オブナーベース」の複雑さの鍵となるメトリクスを予測する。
この研究は、Gr"オブザーバ計算によるニューラルネットワークによる予測が簡単なプロセスではない理由を説明している。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: We use ansatz neural network models to predict key metrics of complexity for
Gr\"obner bases of binomial ideals. This work illustrates why predictions with
neural networks from Gr\"obner computations are not a straightforward process.
Using two probabilistic models for random binomial ideals, we generate and make
available a large data set that is able to capture sufficient variability in
Gr\"obner complexity. We use this data to train neural networks and predict the
cardinality of a reduced Gr\"obner basis and the maximum total degree of its
elements. While the cardinality prediction problem is unlike classical problems
tackled by machine learning, our simulations show that neural networks,
providing performance statistics such as $r^2 = 0.401$, outperform naive guess
or multiple regression models with $r^2 = 0.180$.
- Abstract(参考訳): 我々は,二項イデアルのgr\"obner基底の複雑性の重要な指標を予測するために,ansatzニューラルネットワークモデルを用いる。
この研究は、gr\"obner計算によるニューラルネットワークによる予測が単純なプロセスではない理由を説明している。
ランダムな二項イデアルのための2つの確率モデルを用いて、gr\"obner複雑性において十分な可変性をキャプチャできる大きなデータセットを生成し、利用可能にする。
このデータを用いて、ニューラルネットワークをトレーニングし、Gr\"オブナー基底の濃度と、その要素の最大総次数を予測します。
基数予測問題は、機械学習が取り組んだ古典的な問題とは違っているが、シミュレーションによれば、r^2 = 0.401$のようなパフォーマンス統計を提供するニューラルネットワークや、r^2 = 0.180$の複数の回帰モデルよりも優れている。
関連論文リスト
- Adaptive Basis Function Selection for Computationally Efficient Predictions [2.1499203845437216]
モデル領域のサブドメインにおける予測において,最も重要なBFを自動的に選択する手法を開発した。
これにより、予測精度を維持しながら、計算予測の計算複雑性を著しく低減できる。
論文 参考訳(メタデータ) (2024-08-14T11:53:18Z) - Beyond Closure Models: Learning Chaotic-Systems via Physics-Informed Neural Operators [78.64101336150419]
カオスシステムの長期的挙動を予測することは、気候モデリングなどの様々な応用に不可欠である。
このような完全解法シミュレーションに対する別のアプローチは、粗いグリッドを使用して、時間テキストモデルによってエラーを修正することである。
この制限を克服する物理インフォームド・ニューラル演算子(PINO)を用いたエンド・ツー・エンドの学習手法を提案する。
論文 参考訳(メタデータ) (2024-08-09T17:05:45Z) - Matching the Statistical Query Lower Bound for k-sparse Parity Problems with Stochastic Gradient Descent [83.85536329832722]
勾配勾配降下(SGD)は,$d$次元ハイパーキューブ上の$k$パリティ問題を効率的に解くことができることを示す。
次に、SGDでトレーニングされたニューラルネットワークがどのようにして、小さな統計的エラーで$k$-parityの問題を解決するかを実証する。
論文 参考訳(メタデータ) (2024-04-18T17:57:53Z) - Structured Radial Basis Function Network: Modelling Diversity for
Multiple Hypotheses Prediction [51.82628081279621]
多重モード回帰は非定常過程の予測や分布の複雑な混合において重要である。
構造的放射基底関数ネットワークは回帰問題に対する複数の仮説予測器のアンサンブルとして提示される。
この構造モデルにより, このテッセルレーションを効率よく補間し, 複数の仮説対象分布を近似することが可能であることが証明された。
論文 参考訳(メタデータ) (2023-09-02T01:27:53Z) - Is Stochastic Gradient Descent Near Optimal? [0.0]
本研究では,多数のサンプルとクエリの総数を用いて,勾配勾配勾配の誤差が小さいことを示す。
このことは、SGDがJoen & Van Roy (arXiv:2203.00246) の情報理論的なサンプル複雑性境界を計算的に効率よく達成していることを示唆している。
論文 参考訳(メタデータ) (2022-09-18T18:26:43Z) - Bagged Polynomial Regression and Neural Networks [0.0]
時系列とデータセットの回帰は、ニューラルネットワークと同じ関数クラスを近似することができる。
textitbagged regression (BPR)は、ニューラルネットワークの魅力的な代替品である。
BPRは、衛星データを用いた作物分類において、ニューラルネットワークと同様に機能する。
論文 参考訳(メタデータ) (2022-05-17T19:55:56Z) - Minimax Optimal Quantization of Linear Models: Information-Theoretic
Limits and Efficient Algorithms [59.724977092582535]
測定から学習した線形モデルの定量化の問題を考える。
この設定の下では、ミニマックスリスクに対する情報理論の下限を導出する。
本稿では,2層ReLUニューラルネットワークに対して,提案手法と上界を拡張可能であることを示す。
論文 参考訳(メタデータ) (2022-02-23T02:39:04Z) - The Separation Capacity of Random Neural Networks [78.25060223808936]
標準ガウス重みと一様分布バイアスを持つ十分に大きな2層ReLUネットワークは、この問題を高い確率で解くことができることを示す。
我々は、相互複雑性という新しい概念の観点から、データの関連構造を定量化する。
論文 参考訳(メタデータ) (2021-07-31T10:25:26Z) - Towards an Understanding of Benign Overfitting in Neural Networks [104.2956323934544]
現代の機械学習モデルは、しばしば膨大な数のパラメータを使用し、通常、トレーニング損失がゼロになるように最適化されている。
ニューラルネットワークの2層構成において、これらの良質な過適合現象がどのように起こるかを検討する。
本稿では,2層型ReLUネットワーク補間器を極小最適学習率で実現可能であることを示す。
論文 参考訳(メタデータ) (2021-06-06T19:08:53Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。