論文の概要: Simplifying Polylogarithms with Machine Learning
- arxiv url: http://arxiv.org/abs/2206.04115v1
- Date: Wed, 8 Jun 2022 18:20:21 GMT
- ステータス: 処理完了
- システム内更新日: 2022-06-11 06:50:59.072016
- Title: Simplifying Polylogarithms with Machine Learning
- Title(参考訳): 機械学習による多元対の簡易化
- Authors: Aur\'elien Dersy, Matthew D. Schwartz, Xiaoyuan Zhang
- Abstract要約: 粒子物理学に関連する多くの計算において、多対数の複雑な組み合わせはファインマン積分から生じることが多い。
本稿では,ゲーム中の動きに類似したアイデンティティを持つ強化学習アプローチと,言語翻訳タスクと類似した認識を行うトランスフォーマーネットワークアプローチについて考察する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Polylogrithmic functions, such as the logarithm or dilogarithm, satisfy a
number of algebraic identities. For the logarithm, all the identities follow
from the product rule. For the dilogarithm and higher-weight classical
polylogarithms, the identities can involve five functions or more. In many
calculations relevant to particle physics, complicated combinations of
polylogarithms often arise from Feynman integrals. Although the initial
expressions resulting from the integration usually simplify, it is often
difficult to know which identities to apply and in what order. To address this
bottleneck, we explore to what extent machine learning methods can help. We
consider both a reinforcement learning approach, where the identities are
analogous to moves in a game, and a transformer network approach, where the
problem is viewed analogously to a language-translation task. While both
methods are effective, the transformer network appears more powerful and holds
promise for practical use in symbolic manipulation tasks in mathematical
physics.
- Abstract(参考訳): 対数や対数といった多元関数は、多くの代数的同一性を満たす。
対数について、すべての同一性は積則から従う。
双対と高重の古典多元体では、5つ以上の関数を含むことができる。
素粒子物理学に関連する多くの計算において、多対数の複雑な組合せはしばしばファインマン積分から生じる。
統合から生じる初期表現は通常単純化されるが、どのIDをどの順序で適用するかを知ることはしばしば困難である。
このボトルネックに対処するために、機械学習手法がどの程度役立つのかを探求する。
本研究は,ゲーム中の動きと同一性が類似した強化学習アプローチと,言語翻訳タスクに類似した問題視を行うトランスフォーマーネットワークアプローチの両方を検討する。
どちらの手法も有効であるが、トランスフォーマーネットワークはより強力に見え、数理物理学における記号操作タスクの実用性が期待されている。
関連論文リスト
- Interpreting Grokked Transformers in Complex Modular Arithmetic [31.78132974646383]
解析可能なリバースエンジニアリングにより複雑なモジュラー算術で学習した内部回路を観察する。
実験分析では,様々な組み合わせの総合評価の重要性を強調した。
論文 参考訳(メタデータ) (2024-02-26T16:48:12Z) - Transformers, parallel computation, and logarithmic depth [33.659870765923884]
我々は,一定数の自己注意層が,大規模並列計算の通信ラウンドを効率よくシミュレートし,シミュレートできることを示す。
論文 参考訳(メタデータ) (2024-02-14T15:54:55Z) - Transolver: A Fast Transformer Solver for PDEs on General Geometries [71.68821482043067]
本稿では, 離散化された測地の背後に隠れた本質的な物理状態を学習するTransolverについて述べる。
スライスから符号化された物理認識トークンに注意を向けることで、Transovlerは複雑な物理的相関を効果的に捉えることができる。
Transolverは6つの標準ベンチマークで22%の相対的な利得で一貫した最先端を実現し、大規模産業シミュレーションでも優れている。
論文 参考訳(メタデータ) (2024-02-04T06:37:38Z) - Symbolic Equation Solving via Reinforcement Learning [11.059341532498635]
機械学習の手法は、様々な社会的、経済的、科学的文脈で徐々に採用されている。
本稿では,線形方程式を記号形式で解くというパラダイム的な例に焦点をあてる。
本稿では,ニューラルネットワークを用いた強化学習を用いて,基本変換規則とステップバイステップの解を求めるプロセスの自動化を実証する。
論文 参考訳(メタデータ) (2024-01-24T13:42:24Z) - CoLA: Exploiting Compositional Structure for Automatic and Efficient
Numerical Linear Algebra [62.37017125812101]
機械学習における大規模線形代数問題に対して, CoLA という, 単純だが汎用的なフレームワークを提案する。
線形演算子抽象と合成ディスパッチルールを組み合わせることで、CoLAはメモリと実行時の効率的な数値アルゴリズムを自動的に構築する。
偏微分方程式,ガウス過程,同変モデル構築,教師なし学習など,幅広い応用で有効性を示す。
論文 参考訳(メタデータ) (2023-09-06T14:59:38Z) - Linearity of Relation Decoding in Transformer Language Models [82.47019600662874]
トランスフォーマー言語モデル(LM)で符号化された知識の多くは、関係性の観点から表現することができる。
関係のサブセットに対して、この計算は対象表現上の1つの線形変換によってよく近似されることを示す。
論文 参考訳(メタデータ) (2023-08-17T17:59:19Z) - Well-definedness of Physical Law Learning: The Uniqueness Problem [63.9246169579248]
物理法学学習は、機械学習技術を用いて支配方程式の導出を自動化するための曖昧な試みである。
本論文は、物理法則を学習するための包括的な理論的枠組みを構築するための第一歩として機能する。
論文 参考訳(メタデータ) (2022-10-15T17:32:49Z) - Multiset Signal Processing and Electronics [1.0152838128195467]
多重集合は、要素の反復を可能にする伝統的な概念の直感的な拡張である。
最近の実数値関数への多重集合の一般化は、多くの興味深い意味や応用への道を開いた。
離散回路と集積回路のいずれにおいても,高性能な自己相関と相互相関が可能な実効マルチセット演算は比較的単純である。
論文 参考訳(メタデータ) (2021-11-13T11:50:00Z) - Statistically Meaningful Approximation: a Case Study on Approximating
Turing Machines with Transformers [50.85524803885483]
本研究は,統計的学習性を示すために近似ネットワークを必要とする統計有意(SM)近似の形式的定義を提案する。
回路とチューリングマシンの2つの機能クラスに対するSM近似について検討する。
論文 参考訳(メタデータ) (2021-07-28T04:28:55Z) - Analyzing the Nuances of Transformers' Polynomial Simplification
Abilities [11.552059052724907]
我々は、Transformerが数値乗算に一貫して苦労していることを示します。
そこで我々は,カリキュラムの学習と記号計算のアプローチという2つの方法を検討した。
どちらのアプローチも、バニラトランスフォーマーベースのベースラインを大きく上回っている。
論文 参考訳(メタデータ) (2021-04-29T03:52:46Z) - Recognizing and Verifying Mathematical Equations using Multiplicative
Differential Neural Units [86.9207811656179]
メモリ拡張ニューラルネットワーク(NN)は、高次、メモリ拡張外挿、安定した性能、より高速な収束を実現することができることを示す。
本モデルでは,現在の手法と比較して1.53%の精度向上を達成し,2.22%のtop-1平均精度と2.96%のtop-5平均精度を達成している。
論文 参考訳(メタデータ) (2021-04-07T03:50:11Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。