論文の概要: Lorentz-Equivariant Geometric Algebra Transformers for High-Energy Physics
- arxiv url: http://arxiv.org/abs/2405.14806v2
- Date: Tue, 9 Jul 2024 16:01:23 GMT
- ステータス: 処理完了
- システム内更新日: 2024-07-10 23:11:39.371334
- Title: Lorentz-Equivariant Geometric Algebra Transformers for High-Energy Physics
- Title(参考訳): 高エネルギー物理のためのローレンツ等変幾何代数変換器
- Authors: Jonas Spinner, Victor Bresó, Pim de Haan, Tilman Plehn, Jesse Thaler, Johann Brehmer,
- Abstract要約: Lorentz Geometric Algebra Transformer (L-GATr)は高エネルギー物理のための新しい多目的アーキテクチャである。
L-GATrは、粒子物理学からの回帰および分類タスクで最初に実証された。
次に、L-GATrネットワークに基づく連続正規化フローであるローレンツ同変生成モデルを構築する。
- 参考スコア(独自算出の注目度): 4.4970885242855845
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Extracting scientific understanding from particle-physics experiments requires solving diverse learning problems with high precision and good data efficiency. We propose the Lorentz Geometric Algebra Transformer (L-GATr), a new multi-purpose architecture for high-energy physics. L-GATr represents high-energy data in a geometric algebra over four-dimensional space-time and is equivariant under Lorentz transformations, the symmetry group of relativistic kinematics. At the same time, the architecture is a Transformer, which makes it versatile and scalable to large systems. L-GATr is first demonstrated on regression and classification tasks from particle physics. We then construct the first Lorentz-equivariant generative model: a continuous normalizing flow based on an L-GATr network, trained with Riemannian flow matching. Across our experiments, L-GATr is on par with or outperforms strong domain-specific baselines.
- Abstract(参考訳): 粒子物理実験から科学的理解を抽出するには、高精度で優れたデータ効率で多様な学習問題を解く必要がある。
高エネルギー物理のための新しい多目的アーキテクチャであるLorentz Geometric Algebra Transformer (L-GATr)を提案する。
L-GATrは4次元時空上の幾何学代数における高エネルギーデータを表し、相対論的運動学の対称性群であるローレンツ変換の下で同変である。
同時に、アーキテクチャはTransformerであり、大規模システムに対して多用途でスケーラブルである。
L-GATrは、粒子物理学からの回帰および分類タスクで最初に実証された。
次に,L-GATrネットワークに基づく連続正規化フローを,リーマン流マッチングを用いて学習した最初のローレンツ同変生成モデルを構築した。
実験全体では、L-GATrは強いドメイン固有のベースラインに匹敵する、あるいは優れています。
関連論文リスト
- Transolver: A Fast Transformer Solver for PDEs on General Geometries [66.82060415622871]
本稿では, 離散化された測地の背後に隠れた本質的な物理状態を学習するTransolverについて述べる。
スライスから符号化された物理認識トークンに注意を向けることで、Transovlerは複雑な物理的相関を効果的に捉えることができる。
Transolverは6つの標準ベンチマークで22%の相対的な利得で一貫した最先端を実現し、大規模産業シミュレーションでも優れている。
論文 参考訳(メタデータ) (2024-02-04T06:37:38Z) - Explainable Equivariant Neural Networks for Particle Physics: PELICAN [51.02649432050852]
PELICANは、新しい置換同変であり、ローレンツ不変アグリゲーターネットワークである。
本稿では,タグ付け(分類)とローレンツ発泡トップクォークの再構成(回帰)の両文脈におけるPELICANアルゴリズムアーキテクチャについて述べる。
PELICANの適用範囲を、クォーク開始時とグルーオン開始時とを識別するタスクに拡張し、5種類のジェットを対象とするマルチクラス同定を行う。
論文 参考訳(メタデータ) (2023-07-31T09:08:40Z) - Geometric Algebra Transformer [16.656636729960727]
幾何学的データに関わる問題は、物理学、化学、ロボット工学、コンピュータビジョンなど多くの分野において発生する。
対称性を尊重しながら、このような幅広い幾何学的タイプに適用できる単一のアーキテクチャは存在しない。
本稿では,幾何学データのための汎用アーキテクチャであるGeometric Algebra Transformer (GATr)を紹介する。
論文 参考訳(メタデータ) (2023-05-28T18:48:50Z) - PELICAN: Permutation Equivariant and Lorentz Invariant or Covariant
Aggregator Network for Particle Physics [64.5726087590283]
本稿では,全6次元ローレンツ対称性に対して最大で還元された入力の集合を用いた機械学習アーキテクチャを提案する。
結果として得られたネットワークは、モデル複雑さがはるかに低いにもかかわらず、既存の競合相手すべてを上回っていることを示す。
論文 参考訳(メタデータ) (2022-11-01T13:36:50Z) - Clifford Neural Layers for PDE Modeling [61.07764203014727]
偏微分方程式 (Partial differential equation, PDE) は、物理過程のシミュレーションを、時間とともに相互作用し、共進化するスカラー場やベクトル場として記述するために、科学や工学で広く用いられる。
現在のメソッドは、しばしば相関する異なるフィールドと内部コンポーネントの関係を明示的に考慮していない。
本稿では, Clifford convolutions や Clifford Fourier transforms とともに, 深層学習におけるマルチベクトル表現の活用について述べる。
結果として生じるクリフォード神経層は普遍的に適用可能であり、流体力学、天気予報、一般の物理系のモデリングで直接使用される。
論文 参考訳(メタデータ) (2022-09-08T17:35:30Z) - Equivariant vector field network for many-body system modeling [65.22203086172019]
Equivariant Vector Field Network (EVFN) は、新しい同変層と関連するスカラー化およびベクトル化層に基づいて構築されている。
シミュレーションされたニュートン力学系の軌跡を全観測データと部分観測データで予測する手法について検討した。
論文 参考訳(メタデータ) (2021-10-26T14:26:25Z) - Scalars are universal: Gauge-equivariant machine learning, structured
like classical physics [0.0]
物理的な法則のゲージ対称性を尊重するニューラルネットワーク。
これらの対称性の下で同変な普遍近似関数をパラメータ化することは簡単であることを示す。
これらの結果は、古典物理学におけるゲージ不変深層学習モデルが、大問題に対する優れたスケーリングで現在実現可能であることを理論的に証明している。
論文 参考訳(メタデータ) (2021-06-11T20:51:38Z) - Lorentz Group Equivariant Neural Network for Particle Physics [58.56031187968692]
ローレンツ群の下での変換に関して完全に同値なニューラルネットワークアーキテクチャを提案する。
素粒子物理学における分類問題に対して、そのような同変構造は、比較的学習可能なパラメータの少ない非常に単純なモデルをもたらすことを実証する。
論文 参考訳(メタデータ) (2020-06-08T17:54:43Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。