論文の概要: Learning the Simplicity of Scattering Amplitudes
- arxiv url: http://arxiv.org/abs/2408.04720v2
- Date: Tue, 19 Nov 2024 15:57:07 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-11-20 13:32:43.884285
- Title: Learning the Simplicity of Scattering Amplitudes
- Title(参考訳): 散乱振幅の単純さを学習する
- Authors: Clifford Cheung, Aurélien Dersy, Matthew D. Schwartz,
- Abstract要約: 本研究は,スピノルヘリシティ変数で表される散乱振幅を単純化するタスクへの機械学習の適用について検討する。
エンコーダ・デコーダ変換器アーキテクチャは、少数の項からなる式に対する印象的な単純化機能を実現する。
長文表現は、コントラスト学習を用いて訓練された追加の埋め込みネットワークで実装され、より単純化しやすい部分表現を分離する。
- 参考スコア(独自算出の注目度): 0.0
- License:
- Abstract: The simplification and reorganization of complex expressions lies at the core of scientific progress, particularly in theoretical high-energy physics. This work explores the application of machine learning to a particular facet of this challenge: the task of simplifying scattering amplitudes expressed in terms of spinor-helicity variables. We demonstrate that an encoder-decoder transformer architecture achieves impressive simplification capabilities for expressions composed of handfuls of terms. Lengthier expressions are implemented in an additional embedding network, trained using contrastive learning, which isolates subexpressions that are more likely to simplify. The resulting framework is capable of reducing expressions with hundreds of terms - a regular occurrence in quantum field theory calculations - to vastly simpler equivalent expressions. Starting from lengthy input expressions, our networks can generate the Parke-Taylor formula for five-point gluon scattering, as well as new compact expressions for five-point amplitudes involving scalars and gravitons. An interactive demonstration can be found at https://spinorhelicity.streamlit.app .
- Abstract(参考訳): 複雑な表現の単純化と再編成は、特に理論上の高エネルギー物理学において科学的進歩の核心にある。
本研究は、スピンor-helicity変数で表される散乱振幅を単純化するタスクである、この課題の特定の側面への機械学習の適用について検討する。
エンコーダ・デコーダ変換器アーキテクチャは,一握りの項からなる式に対して,印象的な単純化を実現することを実証する。
長文表現は、コントラスト学習を用いて訓練された追加の埋め込みネットワークで実装され、より単純化しやすい部分表現を分離する。
結果として得られるフレームワークは、数百の項(量子場理論の計算における正規発生)で表現を、はるかに単純な等価表現に還元することができる。
5点グルーオン散乱のParke-Taylor式とスカラーおよびグラビトンを含む5点振幅の新しいコンパクト式を生成することができる。
インタラクティブなデモはhttps://spinorhelicity.streamlit.appで見ることができる。
関連論文リスト
- Provably Transformers Harness Multi-Concept Word Semantics for Efficient In-Context Learning [53.685764040547625]
トランスフォーマーベースの大規模言語モデル(LLM)は、卓越した創造力と出現能力を示している。
この研究は、トランスフォーマーが単語のマルチコンセプトセマンティクスをどのように活用し、強力なICLと優れたアウト・オブ・ディストリビューションICL能力を実現するかを示すための数学的解析を提供する。
論文 参考訳(メタデータ) (2024-11-04T15:54:32Z) - A distributional simplicity bias in the learning dynamics of transformers [50.91742043564049]
自然言語データに基づいてトレーニングされたトランスフォーマーは、単純さのバイアスも示している。
具体的には、入力トークン間の多体相互作用を逐次学習し、低次相互作用の予測誤差において飽和点に達する。
このアプローチは、自然言語処理などにおいて、データ内の異なる順序の相互作用が学習にどのように影響するかを研究する可能性を開く。
論文 参考訳(メタデータ) (2024-10-25T15:39:34Z) - From Sparse Dependence to Sparse Attention: Unveiling How Chain-of-Thought Enhances Transformer Sample Efficiency [17.612497960364916]
CoT(Chain-of-Thought)は大規模言語モデル(LLM)の推論性能を著しく向上させる
代表電力が十分である場合でも,CoTは試料効率を大幅に向上できることを示す。
CoTは入力トークン間のスパース依存関係を導入して学習プロセスを単純化し、スパースかつ解釈可能な注意を喚起することを示す。
論文 参考訳(メタデータ) (2024-10-07T19:45:09Z) - In-Context Learning with Representations: Contextual Generalization of Trained Transformers [66.78052387054593]
In-context Learning (ICL) は、事前訓練された大規模言語モデルの能力を指し、推論中にいくつか例を挙げると、新しいタスクを学習できる。
本稿では,非線形回帰タスクのレンズによる勾配降下による変圧器のトレーニングダイナミクスについて検討する。
論文 参考訳(メタデータ) (2024-08-19T16:47:46Z) - Strengthening Structural Inductive Biases by Pre-training to Perform Syntactic Transformations [75.14793516745374]
中間学習によりトランスフォーマーの構造的帰納バイアスを強化することを提案する。
実験の結果,チャンキングなどの構文的タスクのわずかな学習に有効であることが確認された。
分析の結果,中間的事前学習は,どのトークンにシナティクス変換を適用する必要があるかを追尾する注意を喚起することが明らかとなった。
論文 参考訳(メタデータ) (2024-07-05T14:29:44Z) - Inexact Simplification of Symbolic Regression Expressions with Locality-sensitive Hashing [0.7373617024876725]
シンボリック回帰は、データセットに正確に適合するパラメトリックモデルを検索し、単純さと解釈可能性の優先順位付けを行う。
高速な代数的単純化を適用することは、式を完全に単純化するものではなく、式のサイズや複雑さによって正確な方法が実現できない可能性がある。
局所性に敏感なハッシュ(LHS)を用いた効率的なメモ化を用いたSRの単純化と肥大化制御を提案する。
論文 参考訳(メタデータ) (2024-04-08T22:54:14Z) - Interpreting Grokked Transformers in Complex Modular Arithmetic [31.78132974646383]
解析可能なリバースエンジニアリングにより複雑なモジュラー算術で学習した内部回路を観察する。
実験分析では,様々な組み合わせの総合評価の重要性を強調した。
論文 参考訳(メタデータ) (2024-02-26T16:48:12Z) - DIFFormer: Scalable (Graph) Transformers Induced by Energy Constrained
Diffusion [66.21290235237808]
本稿では,データセットからのインスタンスのバッチを進化状態にエンコードするエネルギー制約拡散モデルを提案する。
任意のインスタンス対間の対拡散強度に対する閉形式最適推定を示唆する厳密な理論を提供する。
各種タスクにおいて優れた性能を有する汎用エンコーダバックボーンとして,本モデルの適用性を示す実験を行った。
論文 参考訳(メタデータ) (2023-01-23T15:18:54Z) - Temporal Latent Bottleneck: Synthesis of Fast and Slow Processing
Mechanisms in Sequence Learning [85.95599675484341]
リカレントニューラルネットワークは、時間的に圧縮された表現の学習に対して強い誘導バイアスを持つ。
変換器は時間的に圧縮された表現を学習する際の帰納的バイアスがほとんどない。
論文 参考訳(メタデータ) (2022-05-30T00:12:33Z) - Learning to Reason Deductively: Math Word Problem Solving as Complex
Relation Extraction [10.721488421356053]
数学用語の問題を解くには、テキストの量に対する演能的な推論が必要である。
近年の研究は、式を生成するためのシーケンス・ツー・シークエンスまたはシーケンス・トゥ・ツリーモデルに大きく依存している。
本稿では,目的表現を反復的に構築するための説明可能な推論ステップを提案する。
論文 参考訳(メタデータ) (2022-03-19T12:37:16Z) - A Compositional Atlas of Tractable Circuit Operations: From Simple
Transformations to Complex Information-Theoretic Queries [44.36335714431731]
本稿では,回路上のモジュラー操作において,機械学習の複雑な推論シナリオがいかに表現できるかを示す。
文献におけるいくつかの結果を一般化し,新たな抽出可能な推論シナリオを開放する,抽出可能なモデルについて推論するための統一的な枠組みを導出する。
論文 参考訳(メタデータ) (2021-02-11T17:26:32Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。