論文の概要: A Lorentz-Equivariant Transformer for All of the LHC
- arxiv url: http://arxiv.org/abs/2411.00446v2
- Date: Sun, 22 Dec 2024 10:02:46 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-12-24 15:50:40.495574
- Title: A Lorentz-Equivariant Transformer for All of the LHC
- Title(参考訳): 全LHC用ローレンツ変圧器
- Authors: Johann Brehmer, Víctor Bresó, Pim de Haan, Tilman Plehn, Huilin Qu, Jonas Spinner, Jesse Thaler,
- Abstract要約: ローレンツ等価な幾何アルゲブラ変換器(L-GATr)は、大規模ハドロン衝突型加速器において、幅広い機械学習タスクに対して最先端の性能を発揮することを示す。
- 参考スコア(独自算出の注目度): 5.329375781648604
- License:
- Abstract: We show that the Lorentz-Equivariant Geometric Algebra Transformer (L-GATr) yields state-of-the-art performance for a wide range of machine learning tasks at the Large Hadron Collider. L-GATr represents data in a geometric algebra over space-time and is equivariant under Lorentz transformations. The underlying architecture is a versatile and scalable transformer, which is able to break symmetries if needed. We demonstrate the power of L-GATr for amplitude regression and jet classification, and then benchmark it as the first Lorentz-equivariant generative network. For all three LHC tasks, we find significant improvements over previous architectures.
- Abstract(参考訳): ローレンツ等価な幾何アルゲブラ変換器(L-GATr)は、大規模ハドロン衝突型加速器において、幅広い機械学習タスクに対して最先端の性能を発揮することを示す。
L-GATr は時空上の幾何学的代数のデータを表し、ローレンツ変換の下で同変である。
基盤となるアーキテクチャは万能でスケーラブルなトランスフォーマーであり、必要に応じて対称性を破ることができる。
振幅回帰とジェット分類のためのL-GATrのパワーを実証し、最初のローレンツ同変生成ネットワークとしてベンチマークする。
3つのLHCタスクすべてにおいて、以前のアーキテクチャよりも大幅に改善されている。
関連論文リスト
- Geometric Algebra Planes: Convex Implicit Neural Volumes [70.12234371845445]
GA-Planes はスパース低ランク係数と低分解能行列と等価であることを示す。
また,GA-Planeは既存の表現にも適用可能であることを示す。
論文 参考訳(メタデータ) (2024-11-20T18:21:58Z) - Lorentz-Equivariant Geometric Algebra Transformers for High-Energy Physics [4.4970885242855845]
Lorentz Geometric Algebra Transformer (L-GATr)は高エネルギー物理のための新しい多目的アーキテクチャである。
L-GATrは、粒子物理学からの回帰および分類タスクで最初に実証された。
次に、L-GATrネットワークに基づく連続正規化フローであるローレンツ同変生成モデルを構築する。
論文 参考訳(メタデータ) (2024-05-23T17:15:41Z) - The hidden Lorentz Covariance of Quantum Mechanics [0.552480439325792]
ヒルベルト空間の各質量セクターはローレンツ代数の表現を持ち、各質量セクター上の(反)デシッター代数はポアンカレア代数に縮約することを示した。
また、3次元ファジィ空間はこれらの代数のユニタリ表現も持つことを示す。
論文 参考訳(メタデータ) (2023-12-25T15:18:57Z) - Explainable Equivariant Neural Networks for Particle Physics: PELICAN [51.02649432050852]
PELICANは、新しい置換同変であり、ローレンツ不変アグリゲーターネットワークである。
本稿では,タグ付け(分類)とローレンツ発泡トップクォークの再構成(回帰)の両文脈におけるPELICANアルゴリズムアーキテクチャについて述べる。
PELICANの適用範囲を、クォーク開始時とグルーオン開始時とを識別するタスクに拡張し、5種類のジェットを対象とするマルチクラス同定を行う。
論文 参考訳(メタデータ) (2023-07-31T09:08:40Z) - Lorentz Equivariant Model for Knowledge-Enhanced Hyperbolic
Collaborative Filtering [19.57064597050846]
我々は,知識グラフ(KG)から事前補助情報を導入し,ユーザ・テムグラフを支援する。
我々は、厳密なローレンツ群同変知識強化協調フィルタリングモデル(LECF)を提案する。
LECFは最先端の手法よりも優れていることを示す。
論文 参考訳(メタデータ) (2023-02-09T10:20:23Z) - Learning a Fourier Transform for Linear Relative Positional Encodings in Transformers [71.32827362323205]
我々はLearner-Transformer (Learners)と呼ばれる線形変換器の新しいクラスを提案する。
様々な相対的位置エンコーディング機構(RPE)を組み込んでいる。
これらには、シーケンシャルデータに適用される正規の RPE 技術や、高次元ユークリッド空間に埋め込まれた幾何学的データを操作する新しい RPE などが含まれる。
論文 参考訳(メタデータ) (2023-02-03T18:57:17Z) - PELICAN: Permutation Equivariant and Lorentz Invariant or Covariant
Aggregator Network for Particle Physics [64.5726087590283]
本稿では,全6次元ローレンツ対称性に対して最大で還元された入力の集合を用いた機械学習アーキテクチャを提案する。
結果として得られたネットワークは、モデル複雑さがはるかに低いにもかかわらず、既存の競合相手すべてを上回っていることを示す。
論文 参考訳(メタデータ) (2022-11-01T13:36:50Z) - Towards Lightweight Transformer via Group-wise Transformation for
Vision-and-Language Tasks [126.33843752332139]
本稿では,LW-Transformerと呼ばれる視覚・言語タスクのための,普遍的で軽量なトランスフォーマーに対するグループワイズ変換を提案する。
LW-Transformerを一組のTransformerベースのネットワークに適用し、3つの視覚・言語タスクと6つのベンチマークデータセットで定量的に測定する。
実験の結果,LW-Transformerは多数のパラメータや計算を節約しながら,視覚・言語タスクのためのトランスフォーマーネットワークと非常に競合する性能を発揮することがわかった。
論文 参考訳(メタデータ) (2022-04-16T11:30:26Z) - Lorentz Group Equivariant Neural Network for Particle Physics [58.56031187968692]
ローレンツ群の下での変換に関して完全に同値なニューラルネットワークアーキテクチャを提案する。
素粒子物理学における分類問題に対して、そのような同変構造は、比較的学習可能なパラメータの少ない非常に単純なモデルをもたらすことを実証する。
論文 参考訳(メタデータ) (2020-06-08T17:54:43Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。