論文の概要: Murmurations, Mestre--Nagao sums, and Convolutional Neural Networks for elliptic curves
- arxiv url: http://arxiv.org/abs/2603.17681v1
- Date: Wed, 18 Mar 2026 12:57:45 GMT
- ステータス: 情報取得中
- システム内更新日: 2026-03-19 12:09:20.161658
- Title: Murmurations, Mestre--Nagao sums, and Convolutional Neural Networks for elliptic curves
- Title(参考訳): 楕円曲線に対するMestre-Nagao和と畳み込みニューラルネットワーク
- Authors: Joanna Bieri, Edgar Costa, Alyson Deines, Kyu-Hwan Lee, David Lowry-Duda, Thomas Oliver, Yidi Qi, Tamara Veenstra,
- Abstract要約: 1次元畳み込みニューラルネットワークを$mathbbQ$以上の楕円曲線のフロベニウストレースに適用する。
各種導体における解析ランクの高精度な予測を行う。
- 参考スコア(独自算出の注目度): 0.0
- License:
- Abstract: We apply one-dimensional convolutional neural networks to the Frobenius traces of elliptic curves over $\mathbb{Q}$ and evaluate and interpret their predictive capacity. In keeping with similar experiments by Kazalicki--Vlah, Bujanović--Kazalicki--Novak, and Pozdnyakov, we observe high accuracy predictions for the analytic rank across a range of conductors. We interpret the prediction using saliency curves and explore the interesting interplay between murmurations and Mestre--Nagao sums, the details of which vary with the conductor and the (predicted) rank.
- Abstract(参考訳): 我々は1次元畳み込みニューラルネットワークを$\mathbb{Q}$以上の楕円曲線のフロベニウストレースに適用し、それらの予測能力を評価し、解釈する。
Kazalicki-Vlah, Bujanović--Kazalicki-Novak, Pozdnyakov らによる同様の実験を続けて、様々な導体における分析ランクの高精度な予測を観察する。
関連論文リスト
- Beyond NNGP: Large Deviations and Feature Learning in Bayesian Neural Networks [1.1470070927586018]
大偏差理論は、予測子に対する明示的な変動目標-レート関数を与える。
後続出力率関数は,予測器と内部カーネルとの協調最適化により得られることを示す。
論文 参考訳(メタデータ) (2026-02-26T12:15:11Z) - Implicit Hypothesis Testing and Divergence Preservation in Neural Network Representations [3.641372680589358]
二元仮説テストのレンズによる神経分類器の教師付きトレーニングダイナミクスについて検討した。
表現のクラス条件分布間のバイナリテストの集合として分類をモデル化し、実験により、訓練軌道に沿って、よく一般化されたネットワークが、ネイマン・ピアソンの最適決定規則と整合していることが示される。
論文 参考訳(メタデータ) (2026-01-28T10:46:44Z) - In-Context Linear Regression Demystified: Training Dynamics and Mechanistic Interpretability of Multi-Head Softmax Attention [52.159541540613915]
本研究では,マルチヘッド型ソフトマックスアテンションモデルを用いて,線形データを用いたコンテキスト内学習を行う方法について検討する。
この結果から,学習内容の学習能力は,そのアーキテクチャと基礎となるデータ分布の集約的効果として,訓練されたトランスフォーマーから出現することが明らかとなった。
論文 参考訳(メタデータ) (2025-03-17T02:00:49Z) - Machine Learning Approaches to the Shafarevich-Tate Group of Elliptic Curves [0.0]
我々は機械学習モデルを訓練し、$mathbbQ$の楕円曲線のシャファレヴィチ・テイト群の順序を予測する。
我々は、トレーニング中に見られない群の順序を予測し、最近エルキースとクラグスブルンによって発見されたランク29の楕円曲線に適用できる回帰モデルを開発する。
論文 参考訳(メタデータ) (2024-12-24T18:01:19Z) - Revealing Decurve Flows for Generalized Graph Propagation [108.80758541147418]
本研究は,有向グラフと重み付きグラフを用いて,m文を一般化した伝播を定義することによって,従来のメッセージパッシング(中心からグラフ学習)の限界に対処する。
この分野ではじめて、データセットにおける学習された伝播パターンの予備的な探索を含む。
論文 参考訳(メタデータ) (2024-02-13T14:13:17Z) - Neural Tangent Kernels Motivate Graph Neural Networks with
Cross-Covariance Graphs [94.44374472696272]
グラフニューラルネットワーク(GNN)の文脈におけるNTKとアライメントについて検討する。
その結果、2層GNNのアライメントの最適性に関する理論的保証が確立された。
これらの保証は、入力と出力データの相互共分散の関数であるグラフシフト演算子によって特徴づけられる。
論文 参考訳(メタデータ) (2023-10-16T19:54:21Z) - Learning a Neuron by a Shallow ReLU Network: Dynamics and Implicit Bias
for Correlated Inputs [5.7166378791349315]
我々は、単一ニューロンを学習する基本的な回帰タスクとして、1つの隠れた層ReLUネットワークをトレーニングすると、損失がゼロとなることを証明した。
また、最小ランクの補間ネットワークと最小ユークリッドノルムの補間ネットワークのこの設定において、驚くべき区別を示し、特徴付ける。
論文 参考訳(メタデータ) (2023-06-10T16:36:22Z) - Information Bottleneck Analysis of Deep Neural Networks via Lossy Compression [37.69303106863453]
Information Bottleneck(IB)原則は、ディープニューラルネットワーク(DNN)のトレーニングプロセスを分析するための情報理論フレームワークを提供する。
本稿では,一般NNのICB解析を行うためのフレームワークを提案する。
また,MI力学の新たな特徴を明らかにするため,実規模に近いISB解析を行う。
論文 参考訳(メタデータ) (2023-05-13T21:44:32Z) - A Bayesian Perspective on Training Speed and Model Selection [51.15664724311443]
モデルのトレーニング速度の測定値を用いて,その限界確率を推定できることを示す。
線形モデルと深部ニューラルネットワークの無限幅限界に対するモデル選択タスクの結果を検証する。
以上の結果から、勾配勾配勾配で訓練されたニューラルネットワークが、一般化する関数に偏りがある理由を説明するための、有望な新たな方向性が示唆された。
論文 参考訳(メタデータ) (2020-10-27T17:56:14Z) - Generalized Leverage Score Sampling for Neural Networks [82.95180314408205]
レバレッジスコアサンプリング(英: Leverage score sample)は、理論計算機科学に由来する強力な技術である。
本研究では、[Avron, Kapralov, Musco, Musco, Musco, Velingker, Zandieh 17] の結果をより広範なカーネルのクラスに一般化する。
論文 参考訳(メタデータ) (2020-09-21T14:46:01Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。