論文の概要: Generating particle physics Lagrangians with transformers
- arxiv url: http://arxiv.org/abs/2501.09729v1
- Date: Thu, 16 Jan 2025 18:25:50 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-01-17 15:08:44.108884
- Title: Generating particle physics Lagrangians with transformers
- Title(参考訳): 変圧器を用いた粒子物理ラグランジアンの生成
- Authors: Yong Sheng Koay, Rikard Enberg, Stefano Moretti, Eliel Camargo-Molina,
- Abstract要約: 物理学において、ラグランジアンは物理システムを管理する法則を記述する体系的な方法を提供する。
ラグランジアンを言語表現に類似した複雑な規則構造として扱うことにより、与えられた粒子のリストに対応するラグランジアンを予測するためにトランスフォーマーモデルを訓練した。
入力埋め込みの解析を通して、モデルがラグランジアンを生成するために学んだ群表現や共役演算といった内部概念を持つことを示す。
- 参考スコア(独自算出の注目度): 2.5499055723658097
- License:
- Abstract: In physics, Lagrangians provide a systematic way to describe laws governing physical systems. In the context of particle physics, they encode the interactions and behavior of the fundamental building blocks of our universe. By treating Lagrangians as complex, rule-based constructs similar to linguistic expressions, we trained a transformer model -- proven to be effective in natural language tasks -- to predict the Lagrangian corresponding to a given list of particles. We report on the transformer's performance in constructing Lagrangians respecting the Standard Model $\mathrm{SU}(3)\times \mathrm{SU}(2)\times \mathrm{U}(1)$ gauge symmetries. The resulting model is shown to achieve high accuracies (over 90\%) with Lagrangians up to six matter fields, with the capacity to generalize beyond the training distribution, albeit within architectural constraints. We show through an analysis of input embeddings that the model has internalized concepts such as group representations and conjugation operations as it learned to generate Lagrangians. We make the model and training datasets available to the community. An interactive demonstration can be found at: \url{https://huggingface.co/spaces/JoseEliel/generate-lagrangians}.
- Abstract(参考訳): 物理学において、ラグランジアンは物理システムを管理する法則を記述する体系的な方法を提供する。
素粒子物理学の文脈では、宇宙の基本的な構成要素の相互作用と振舞いを符号化する。
ラグランジアンを言語表現に類似した複雑な規則に基づく構成体として扱うことで、ある粒子のリストに対応するラグランジアンを予測するために、自然言語処理に有効であることが証明されたトランスフォーマーモデルを訓練した。
標準モデル $\mathrm{SU}(3)\times \mathrm{SU}(2)\times \mathrm{U}(1)$ gauge symmetries を尊重するラグランジアンを構成する際の変換器の性能について報告する。
得られたモデルでは、ラグランジアンが最大6つの物質場を持つ高い精度(90%以上)を達成することが示され、アーキテクチャ上の制約にもかかわらず、トレーニング分布を超えて一般化する能力がある。
入力埋め込みの解析を通して、モデルがラグランジアンを生成するために学んだ群表現や共役演算といった内部概念を持つことを示す。
モデルとトレーニングデータセットをコミュニティに公開しています。
インタラクティブなデモは以下の通りである。
関連論文リスト
- GeoMFormer: A General Architecture for Geometric Molecular Representation Learning [84.02083170392764]
我々はこの目的を達成するためにGeoMFormerと呼ばれるトランスフォーマーに基づく新しい分子モデルを導入する。
我々は,GeoMFormerが,異なる型やスケールの不変タスクと同変タスクの両方において,高い性能を達成することを示す。
論文 参考訳(メタデータ) (2024-06-24T17:58:13Z) - Transformers Can Represent $n$-gram Language Models [56.06361029539347]
本稿では,言語モデルの単純かつ歴史的なクラスであるトランスフォーマーLMと$n$-gram LMの関係に注目した。
ハードまたはスパースアテンション機構を用いたトランスフォーマーLMは,任意の$n$-gram LMを正確に表現できることを示す。
論文 参考訳(メタデータ) (2024-04-23T12:51:37Z) - Complete equational theories for classical and quantum Gaussian relations [0.0]
ガウス関係と正アフィンラグランジュ関係のハイパーグラフプロップに対して生成子と関係を与える。
また、受動線形光量子回路を推論するために、LOv-calculusを解釈する。
論文 参考訳(メタデータ) (2024-03-15T17:09:24Z) - Discovering interpretable Lagrangian of dynamical systems from data [0.0]
表現学習の最近のトレンドは、データからラグランジアンを学習することである。
本稿では,データから解釈可能なラグランジアンの発見を自動化するための,新しいデータ駆動型機械学習アルゴリズムを提案する。
論文 参考訳(メタデータ) (2023-02-09T01:57:05Z) - Discrete Lagrangian Neural Networks with Automatic Symmetry Discovery [3.06483729892265]
離散ラグランジアンとその対称性群を運動の離散観測から学習する枠組みを導入する。
学習過程はラグランジアンの形を制限せず、速度や運動量の観測や予測を必要とせず、コスト項も含んでいる。
論文 参考訳(メタデータ) (2022-11-20T00:46:33Z) - Transformer with Implicit Edges for Particle-based Physics Simulation [135.77656965678196]
Implicit Edges (TIE) を用いたトランスフォーマーは、素粒子相互作用のリッチなセマンティクスをエッジフリーでキャプチャする。
様々な複雑さと素材の多様な領域におけるモデルの評価を行った。
論文 参考訳(メタデータ) (2022-07-22T03:45:29Z) - Smooth Normalizing Flows [0.0]
コンパクト区間とハイパートリの両方に作用する滑らかな混合変換のクラスを導入する。
このような逆関数は、逆関数定理を通じて前方評価から計算可能であることを示す。
このような滑らかな流れの2つの利点は、シミュレーションデータと力のマッチングによるトレーニングが可能であり、分子動力学シミュレーションのポテンシャルとして利用できることである。
論文 参考訳(メタデータ) (2021-10-01T12:27:14Z) - Physics-Integrated Variational Autoencoders for Robust and Interpretable
Generative Modeling [86.9726984929758]
我々は、不完全物理モデルの深部生成モデルへの統合に焦点を当てる。
本稿では,潜在空間の一部が物理によって基底づけられたVAEアーキテクチャを提案する。
合成および実世界のデータセットの集合に対して生成的性能改善を示す。
論文 参考訳(メタデータ) (2021-02-25T20:28:52Z) - Simplifying Hamiltonian and Lagrangian Neural Networks via Explicit
Constraints [49.66841118264278]
私たちは、現在のアプローチの限界を押し上げるために、一連の挑戦的なカオスと拡張ボディシステムを導入します。
実験の結果,明示的な制約を持つモンテカルロ座標は,精度とデータ効率を100倍に向上させることがわかった。
論文 参考訳(メタデータ) (2020-10-26T13:35:16Z) - Learning to Simulate Complex Physics with Graph Networks [68.43901833812448]
本稿では,機械学習のフレームワークとモデルの実装について紹介する。
グラフネットワーク・ベース・シミュレータ(GNS)と呼ばれる我々のフレームワークは、グラフ内のノードとして表現された粒子で物理系の状態を表現し、学習されたメッセージパスによって動的を計算します。
我々のモデルは,訓練中に数千の粒子による1段階の予測から,異なる初期条件,数千の時間ステップ,少なくとも1桁以上の粒子をテスト時に一般化できることを示す。
論文 参考訳(メタデータ) (2020-02-21T16:44:28Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。