論文の概要: Simplifying Polylogarithms with Machine Learning
- arxiv url: http://arxiv.org/abs/2206.04115v1
- Date: Wed, 8 Jun 2022 18:20:21 GMT
- ステータス: 処理完了
- システム内更新日: 2022-06-11 06:50:59.072016
- Title: Simplifying Polylogarithms with Machine Learning
- Title(参考訳): 機械学習による多元対の簡易化
- Authors: Aur\'elien Dersy, Matthew D. Schwartz, Xiaoyuan Zhang
- Abstract要約: 粒子物理学に関連する多くの計算において、多対数の複雑な組み合わせはファインマン積分から生じることが多い。
本稿では,ゲーム中の動きに類似したアイデンティティを持つ強化学習アプローチと,言語翻訳タスクと類似した認識を行うトランスフォーマーネットワークアプローチについて考察する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Polylogrithmic functions, such as the logarithm or dilogarithm, satisfy a
number of algebraic identities. For the logarithm, all the identities follow
from the product rule. For the dilogarithm and higher-weight classical
polylogarithms, the identities can involve five functions or more. In many
calculations relevant to particle physics, complicated combinations of
polylogarithms often arise from Feynman integrals. Although the initial
expressions resulting from the integration usually simplify, it is often
difficult to know which identities to apply and in what order. To address this
bottleneck, we explore to what extent machine learning methods can help. We
consider both a reinforcement learning approach, where the identities are
analogous to moves in a game, and a transformer network approach, where the
problem is viewed analogously to a language-translation task. While both
methods are effective, the transformer network appears more powerful and holds
promise for practical use in symbolic manipulation tasks in mathematical
physics.
- Abstract(参考訳): 対数や対数といった多元関数は、多くの代数的同一性を満たす。
対数について、すべての同一性は積則から従う。
双対と高重の古典多元体では、5つ以上の関数を含むことができる。
素粒子物理学に関連する多くの計算において、多対数の複雑な組合せはしばしばファインマン積分から生じる。
統合から生じる初期表現は通常単純化されるが、どのIDをどの順序で適用するかを知ることはしばしば困難である。
このボトルネックに対処するために、機械学習手法がどの程度役立つのかを探求する。
本研究は,ゲーム中の動きと同一性が類似した強化学習アプローチと,言語翻訳タスクに類似した問題視を行うトランスフォーマーネットワークアプローチの両方を検討する。
どちらの手法も有効であるが、トランスフォーマーネットワークはより強力に見え、数理物理学における記号操作タスクの実用性が期待されている。
関連論文リスト
- Learning Linear Attention in Polynomial Time [115.68795790532289]
線形注意を持つ単層変圧器の学習性に関する最初の結果を提供する。
線形アテンションは RKHS で適切に定義された線形予測器とみなすことができる。
我々は,すべての経験的リスクが線形変換器と同等のトレーニングデータセットを効率的に識別する方法を示す。
論文 参考訳(メタデータ) (2024-10-14T02:41:01Z) - Towards Empirical Interpretation of Internal Circuits and Properties in Grokked Transformers on Modular Polynomials [29.09237503747052]
モジュラー加算のグロキングは、変換器の三角形状のフーリエ表現とその計算回路を実装することが知られている。
各操作でグラクされたモデル間の転送性は、特定の組み合わせに限られることを示す。
マルチタスクの混合によってコグルーキングが発生し、すべてのタスクで同時にグルーキングが発生する。
論文 参考訳(メタデータ) (2024-02-26T16:48:12Z) - Transformers, parallel computation, and logarithmic depth [33.659870765923884]
我々は,一定数の自己注意層が,大規模並列計算の通信ラウンドを効率よくシミュレートし,シミュレートできることを示す。
論文 参考訳(メタデータ) (2024-02-14T15:54:55Z) - Symbolic Equation Solving via Reinforcement Learning [9.361474110798143]
シンボリックスタック計算機を操作する強化学習エージェントを含む新しい深層学習インタフェースを提案する。
構築によって、このシステムは正確な変換と幻覚への免疫が可能である。
論文 参考訳(メタデータ) (2024-01-24T13:42:24Z) - CoLA: Exploiting Compositional Structure for Automatic and Efficient
Numerical Linear Algebra [62.37017125812101]
機械学習における大規模線形代数問題に対して, CoLA という, 単純だが汎用的なフレームワークを提案する。
線形演算子抽象と合成ディスパッチルールを組み合わせることで、CoLAはメモリと実行時の効率的な数値アルゴリズムを自動的に構築する。
偏微分方程式,ガウス過程,同変モデル構築,教師なし学習など,幅広い応用で有効性を示す。
論文 参考訳(メタデータ) (2023-09-06T14:59:38Z) - Linearity of Relation Decoding in Transformer Language Models [82.47019600662874]
トランスフォーマー言語モデル(LM)で符号化された知識の多くは、関係性の観点から表現することができる。
関係のサブセットに対して、この計算は対象表現上の1つの線形変換によってよく近似されることを示す。
論文 参考訳(メタデータ) (2023-08-17T17:59:19Z) - How Do Transformers Learn Topic Structure: Towards a Mechanistic
Understanding [56.222097640468306]
我々は、トランスフォーマーが「意味構造」を学ぶ方法の機械的理解を提供する
数学的解析とウィキペディアデータの実験を組み合わせることで、埋め込み層と自己保持層がトピック構造をエンコードしていることを示す。
論文 参考訳(メタデータ) (2023-03-07T21:42:17Z) - Multiset Signal Processing and Electronics [1.0152838128195467]
多重集合は、要素の反復を可能にする伝統的な概念の直感的な拡張である。
最近の実数値関数への多重集合の一般化は、多くの興味深い意味や応用への道を開いた。
離散回路と集積回路のいずれにおいても,高性能な自己相関と相互相関が可能な実効マルチセット演算は比較的単純である。
論文 参考訳(メタデータ) (2021-11-13T11:50:00Z) - Statistically Meaningful Approximation: a Case Study on Approximating
Turing Machines with Transformers [50.85524803885483]
本研究は,統計的学習性を示すために近似ネットワークを必要とする統計有意(SM)近似の形式的定義を提案する。
回路とチューリングマシンの2つの機能クラスに対するSM近似について検討する。
論文 参考訳(メタデータ) (2021-07-28T04:28:55Z) - Analyzing the Nuances of Transformers' Polynomial Simplification
Abilities [11.552059052724907]
我々は、Transformerが数値乗算に一貫して苦労していることを示します。
そこで我々は,カリキュラムの学習と記号計算のアプローチという2つの方法を検討した。
どちらのアプローチも、バニラトランスフォーマーベースのベースラインを大きく上回っている。
論文 参考訳(メタデータ) (2021-04-29T03:52:46Z) - Recognizing and Verifying Mathematical Equations using Multiplicative
Differential Neural Units [86.9207811656179]
メモリ拡張ニューラルネットワーク(NN)は、高次、メモリ拡張外挿、安定した性能、より高速な収束を実現することができることを示す。
本モデルでは,現在の手法と比較して1.53%の精度向上を達成し,2.22%のtop-1平均精度と2.96%のtop-5平均精度を達成している。
論文 参考訳(メタデータ) (2021-04-07T03:50:11Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。