論文の概要: Lorentz Local Canonicalization: How to Make Any Network Lorentz-Equivariant
- arxiv url: http://arxiv.org/abs/2505.20280v1
- Date: Mon, 26 May 2025 17:57:17 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-28 17:05:58.145952
- Title: Lorentz Local Canonicalization: How to Make Any Network Lorentz-Equivariant
- Title(参考訳): Lorentz Local Canonicalization: ネットワークローレンツ等価性を実現する方法
- Authors: Jonas Spinner, Luigi Favaro, Peter Lippmann, Sebastian Pitz, Gerrit Gerhartz, Tilman Plehn, Fred A. Hamprecht,
- Abstract要約: ローレンツ同変ニューラルネットワークは高エネルギー物理学の主要なアーキテクチャになりつつある。
Lorentz Local Canonicalization (LLoCa)は,任意のバックボーンネットワークを正確にLorentz-equivariantでレンダリングする一般的なフレームワークである。
われわれのモデルは、関連する粒子物理学のタスクの最先端の精度を上回り、高速で5ドル〜100ドルでFLOPを減らした。
- 参考スコア(独自算出の注目度): 12.763777716363016
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Lorentz-equivariant neural networks are becoming the leading architectures for high-energy physics. Current implementations rely on specialized layers, limiting architectural choices. We introduce Lorentz Local Canonicalization (LLoCa), a general framework that renders any backbone network exactly Lorentz-equivariant. Using equivariantly predicted local reference frames, we construct LLoCa-transformers and graph networks. We adapt a recent approach to geometric message passing to the non-compact Lorentz group, allowing propagation of space-time tensorial features. Data augmentation emerges from LLoCa as a special choice of reference frame. Our models surpass state-of-the-art accuracy on relevant particle physics tasks, while being $4\times$ faster and using $5$-$100\times$ fewer FLOPs.
- Abstract(参考訳): ローレンツ同変ニューラルネットワークは高エネルギー物理学の主要なアーキテクチャになりつつある。
現在の実装は特別なレイヤに依存しており、アーキテクチャ上の選択を制限しています。
Lorentz Local Canonicalization (LLoCa)は,任意のバックボーンネットワークを正確にLorentz-equivariantでレンダリングする一般的なフレームワークである。
等変的に予測される局所参照フレームを用いて,LLoCa変換器とグラフネットワークを構築する。
我々は、非コンパクトなローレンツ群への幾何学的メッセージパッシングに対する最近のアプローチを適用し、時空テンソル特徴の伝播を可能にする。
データ拡張は、参照フレームの特別な選択としてLLoCaから現れる。
われわれのモデルは、関連する粒子物理学のタスクの最先端の精度を上回り、高速で5ドル〜100ドルでFLOPを減らした。
関連論文リスト
- Lie-Equivariant Quantum Graph Neural Networks [4.051777802443125]
バイナリ分類タスクは、大量のLHCデータの分析においてユビキタスである。
我々は,データ効率だけでなく,対称性保存特性も備えた量子モデルであるLie-Equivariant Quantum Graph Neural Network (Lie-EQGNN)を開発した。
論文 参考訳(メタデータ) (2024-11-22T19:15:13Z) - A Lorentz-Equivariant Transformer for All of the LHC [5.329375781648604]
ローレンツ等価な幾何アルゲブラ変換器(L-GATr)は、大規模ハドロン衝突型加速器において、幅広い機械学習タスクに対して最先端の性能を発揮することを示す。
論文 参考訳(メタデータ) (2024-11-01T08:40:42Z) - Explainable Equivariant Neural Networks for Particle Physics: PELICAN [51.02649432050852]
PELICANは、新しい置換同変であり、ローレンツ不変アグリゲーターネットワークである。
本稿では,タグ付け(分類)とローレンツ発泡トップクォークの再構成(回帰)の両文脈におけるPELICANアルゴリズムアーキテクチャについて述べる。
PELICANの適用範囲を、クォーク開始時とグルーオン開始時とを識別するタスクに拡張し、5種類のジェットを対象とするマルチクラス同定を行う。
論文 参考訳(メタデータ) (2023-07-31T09:08:40Z) - PELICAN: Permutation Equivariant and Lorentz Invariant or Covariant
Aggregator Network for Particle Physics [64.5726087590283]
本稿では,全6次元ローレンツ対称性に対して最大で還元された入力の集合を用いた機械学習アーキテクチャを提案する。
結果として得られたネットワークは、モデル複雑さがはるかに低いにもかかわらず、既存の競合相手すべてを上回っていることを示す。
論文 参考訳(メタデータ) (2022-11-01T13:36:50Z) - Lorentz Group Equivariant Neural Network for Particle Physics [58.56031187968692]
ローレンツ群の下での変換に関して完全に同値なニューラルネットワークアーキテクチャを提案する。
素粒子物理学における分類問題に対して、そのような同変構造は、比較的学習可能なパラメータの少ない非常に単純なモデルをもたらすことを実証する。
論文 参考訳(メタデータ) (2020-06-08T17:54:43Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。