論文の概要: Machine learning modularity
- arxiv url: http://arxiv.org/abs/2601.01779v1
- Date: Mon, 05 Jan 2026 04:17:55 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-06 16:25:22.761161
- Title: Machine learning modularity
- Title(参考訳): 機械学習のモジュラリティ
- Authors: Yi Fan, Vishnu Jejjala, Yang Lei,
- Abstract要約: この研究は、複数の楕円ガンマ関数を含む複雑な表現を自動的に単純化する機械学習フレームワークを導入する。
このモデルは代数的恒等式、特にSL$(2,mathbbZ)$とSL$(2,mathbbZ)$モジュラー変換を適用して、強スクランブル表現を標準形式に還元する。
- 参考スコア(独自算出の注目度): 6.316250090403085
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Based on a transformer based sequence-to-sequence architecture combined with a dynamic batching algorithm, this work introduces a machine learning framework for automatically simplifying complex expressions involving multiple elliptic Gamma functions, including the $q$-$θ$ function and the elliptic Gamma function. The model learns to apply algebraic identities, particularly the SL$(2,\mathbb{Z})$ and SL$(3,\mathbb{Z})$ modular transformations, to reduce heavily scrambled expressions to their canonical forms. Experimental results show that the model achieves over 99\% accuracy on in-distribution tests and maintains robust performance (exceeding 90\% accuracy) under significant extrapolation, such as with deeper scrambling depths. This demonstrates that the model has internalized the underlying algebraic rules of modular transformations rather than merely memorizing training patterns. Our work presents the first successful application of machine learning to perform symbolic simplification using modular identities, offering a new automated tool for computations with special functions in quantum field theory and the string theory.
- Abstract(参考訳): 動的バッチアルゴリズムと組み合わせたトランスフォーマーベースのシーケンス・ツー・シーケンスアーキテクチャに基づいて,q$-$θ$関数や楕円ガンマ関数など,複数の楕円ガンマ関数を含む複雑な表現を自動的に単純化する機械学習フレームワークを導入する。
このモデルは代数的恒等式、特にSL$(2,\mathbb{Z})$およびSL$(3,\mathbb{Z})$モジュラー変換を適用して、強スクランブル表現を標準形式に還元する。
実験結果から,本モデルは分布内試験において99 %以上の精度を達成し,より深いスクランブル深度などの重要な外挿条件下で頑健な性能(90% % の精度)を維持することが示された。
このことは、モデルが単にトレーニングパターンを記憶するのではなく、モジュラー変換の基底となる代数的規則を内部化したことを示している。
本研究は,量子場理論と弦理論の特殊関数を用いた計算のための新しい自動化ツールを提供することにより,モジュラーIDを用いた記号的単純化を実現するための機械学習の最初の成功例を示す。
関連論文リスト
- Learning Pseudorandom Numbers with Transformers: Permuted Congruential Generators, Curricula, and Interpretability [10.75037955193936]
変圧器モデルによる変圧器発電機(PCG)のシーケンス学習能力について検討する。
PCGは、一連のビットワイズシフト、XOR、回転、切り離しを隠された状態に適用することで、線形合同発生器(LCG)に対してかなりの困難をもたらす。
いずれにせよ,トランスフォーマーは多様なPCG変種からの未知のシーケンスに対して,コンテクスト内での予測を成功させることができることを示す。
論文 参考訳(メタデータ) (2025-10-30T17:59:09Z) - Why Can't Transformers Learn Multiplication? Reverse-Engineering Reveals Long-Range Dependency Pitfalls [54.57326125204404]
言語モデルはますます能力が高くなっているが、多桁乗算という一見単純なタスクではまだ失敗している。
直観的連鎖を通して乗法をうまく学習するモデルをリバースエンジニアリングすることでなぜ研究する。
論文 参考訳(メタデータ) (2025-09-30T19:03:26Z) - Learning Modular Exponentiation with Transformers [0.38887448816036313]
4層エンコーダ・デコーダ・トランスモデルをトレーニングし、モジュラー指数化を行う。
相互学習は高い性能向上をもたらし、関連するモジュラーを突如に一般化する。
これらの結果から,変圧器モデルは特殊計算回路を用いてモジュラー演算を学習することが示唆された。
論文 参考訳(メタデータ) (2025-06-30T10:00:44Z) - Learning Compositional Functions with Transformers from Easy-to-Hard Data [63.96562216704653]
我々は、$k$入力置換と$k$隠れ置換のインターリーブ構成を計算しなければならない$k$フォールド合成タスクの学習可能性について検討する。
この関数クラスは、$O(log k)$-depth変換器への勾配降下により、実行時とサンプルを$k$で効率的に学習できることを示す。
論文 参考訳(メタデータ) (2025-05-29T17:22:00Z) - Towards Empirical Interpretation of Internal Circuits and Properties in Grokked Transformers on Modular Polynomials [29.09237503747052]
モジュラー加算のグロキングは、変換器の三角形状のフーリエ表現とその計算回路を実装することが知られている。
各操作でグラクされたモデル間の転送性は、特定の組み合わせに限られることを示す。
マルチタスクの混合によってコグルーキングが発生し、すべてのタスクで同時にグルーキングが発生する。
論文 参考訳(メタデータ) (2024-02-26T16:48:12Z) - Transformers as Statisticians: Provable In-Context Learning with
In-Context Algorithm Selection [88.23337313766353]
この研究はまず、変換器がICLを実行するための包括的な統計理論を提供する。
コンテクストにおいて、トランスフォーマーは、幅広い種類の標準機械学習アルゴリズムを実装可能であることを示す。
エンフィングル変換器は、異なるベースICLアルゴリズムを適応的に選択することができる。
論文 参考訳(メタデータ) (2023-06-07T17:59:31Z) - Transformers Learn Shortcuts to Automata [52.015990420075944]
低深度変換器は任意の有限状態オートマトンを計算できる。
我々は,$O(log T)$レイヤを持つ変換器が,長さ$T$の入力シーケンス上で,オートマトンを正確に再現可能であることを示す。
さらに、これらの解の脆性について検討し、潜在的な緩和を提案する。
論文 参考訳(メタデータ) (2022-10-19T17:45:48Z) - Statistically Meaningful Approximation: a Case Study on Approximating
Turing Machines with Transformers [50.85524803885483]
本研究は,統計的学習性を示すために近似ネットワークを必要とする統計有意(SM)近似の形式的定義を提案する。
回路とチューリングマシンの2つの機能クラスに対するSM近似について検討する。
論文 参考訳(メタデータ) (2021-07-28T04:28:55Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。