論文の概要: Studying number theory with deep learning: a case study with the Möbius and squarefree indicator functions
- arxiv url: http://arxiv.org/abs/2502.10335v1
- Date: Fri, 14 Feb 2025 17:50:00 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-02-17 18:06:33.287262
- Title: Studying number theory with deep learning: a case study with the Möbius and squarefree indicator functions
- Title(参考訳): 深層学習による数論の研究--メビウスと二乗自由指標関数を用いたケーススタディ
- Authors: David Lowry-Duda,
- Abstract要約: 我々は、M"obius function $mu(n)$ と squarefree indicator function $mu2(n)$ を計算するために小さな変換器モデルを訓練する。
我々は、モデルがどのように機能するかを理解するために追加モデルを反復的に訓練し、最終的には理論的な説明を見つける。
- 参考スコア(独自算出の注目度): 0.0
- License:
- Abstract: Building on work of Charton, we train small transformer models to calculate the M\"obius function $\mu(n)$ and the squarefree indicator function $\mu^2(n)$. The models attain nontrivial predictive power. We then iteratively train additional models to understand how the model functions, ultimately finding a theoretical explanation.
- Abstract(参考訳): チャートンの仕事に基づいて、我々は小さな変圧器モデルを訓練し、M\"ビウス関数 $\mu(n)$ と平方自由指標関数 $\mu^2(n)$ を計算する。
モデルは非自明な予測力を得る。
次に、モデルがどのように機能するかを理解するために追加モデルを反復的に訓練し、最終的には理論的な説明を見つけます。
関連論文リスト
- Learning to grok: Emergence of in-context learning and skill composition in modular arithmetic tasks [5.358878931933351]
モジュール型算術タスクの集合における文脈内学習とスキル構成の出現について検討する。
具体的には、線型モジュラ函数の有限集合 $z = a, x + b, y ;mathrmmod; p$ を mathbbZ_p2$ のベクトル $(a, b) でラベル付けする。
論文 参考訳(メタデータ) (2024-06-04T17:59:36Z) - A Dynamical Model of Neural Scaling Laws [79.59705237659547]
ネットワークトレーニングと一般化の解決可能なモデルとして,勾配降下で訓練されたランダムな特徴モデルを分析する。
我々の理論は、データの繰り返し再利用により、トレーニングとテスト損失のギャップが徐々に増大することを示している。
論文 参考訳(メタデータ) (2024-02-02T01:41:38Z) - Probing Graph Representations [77.7361299039905]
グラフ表現でキャプチャされた意味のある情報の量を定量化するために、探索フレームワークを使用します。
本研究は, グラフモデルにおける帰納的バイアスを理解するための探索の可能性を示すものである。
グラフベースモデルを評価する上で有用な診断ツールとして,探索を提唱する。
論文 参考訳(メタデータ) (2023-03-07T14:58:18Z) - Model Selection in Reinforcement Learning with General Function
Approximations [10.97775622611135]
強化学習環境におけるモデル選択の検討 - マルチアームバンド(MAB)とマルコフ決定プロセス(MDP)-
モデル選択フレームワークでは、$mathcalF$と$mathcalM$で表される関数クラスを知らない。
適応アルゴリズムの累積的後悔は、正しい関数クラスを知っているオラクルの後悔と一致することを示す。
論文 参考訳(メタデータ) (2022-07-06T21:52:07Z) - Neural Implicit Manifold Learning for Topology-Aware Density Estimation [15.878635603835063]
現在の生成モデルは、ニューラルネットワークを介して$m$次元の潜在変数をマッピングすることで、$mathcalM$を学ぶ。
我々のモデルは、プッシュフォワードモデルよりも複雑なトポロジーを持つ多様体支持分布を正確に学習できることが示される。
論文 参考訳(メタデータ) (2022-06-22T18:00:00Z) - Datamodels: Predicting Predictions from Training Data [86.66720175866415]
本稿では,モデルクラスの振る舞いを学習データの観点から分析するための概念的枠組みであるデータモデリングについて述べる。
単純な線形データモデルであっても、モデル出力をうまく予測できることが示される。
論文 参考訳(メタデータ) (2022-02-01T18:15:24Z) - Deep Symbolic Regression for Recurrent Sequences [20.172752966322214]
我々はTransformerをトレーニングし、整数やMathematicaの浮動小数点列の関数や繰り返し関係を推測する。
我々は,OEIS配列のサブセット上で整数モデルを評価し,再帰予測のための組込み関数よりも優れていることを示す。
論文 参考訳(メタデータ) (2022-01-12T17:53:50Z) - Quantum double aspects of surface code models [77.34726150561087]
基礎となる量子double $D(G)$対称性を持つ正方格子上でのフォールトトレラント量子コンピューティングの北エフモデルを再検討する。
有限次元ホップ代数$H$に基づいて、我々の構成がどのように$D(H)$モデルに一般化するかを示す。
論文 参考訳(メタデータ) (2021-06-25T17:03:38Z) - Model-Based Reinforcement Learning with Value-Targeted Regression [48.92439657407732]
我々は、遷移モデル $P$ が既知のモデルの族 $mathcalP$ に属する有限水平エピソード RL に焦点を当てる。
線形混合の特別な場合において、後悔束は $tildemathcalO(dsqrtH3T)$ という形を取る。
論文 参考訳(メタデータ) (2020-06-01T17:47:53Z) - Neural Bayes: A Generic Parameterization Method for Unsupervised
Representation Learning [175.34232468746245]
本稿ではニューラルベイズと呼ばれるパラメータ化手法を提案する。
これは一般に計算が難しい統計量の計算を可能にする。
このパラメータ化のための2つの独立したユースケースを示す。
論文 参考訳(メタデータ) (2020-02-20T22:28:53Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。