論文の概要: PELICAN: Permutation Equivariant and Lorentz Invariant or Covariant
Aggregator Network for Particle Physics
- arxiv url: http://arxiv.org/abs/2211.00454v1
- Date: Tue, 1 Nov 2022 13:36:50 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-02 15:12:13.684271
- Title: PELICAN: Permutation Equivariant and Lorentz Invariant or Covariant
Aggregator Network for Particle Physics
- Title(参考訳): PELICAN:粒子物理学のための置換同変とローレンツ不変または共変アグリゲータネットワーク
- Authors: Alexander Bogatskiy, Timothy Hoffman, David W. Miller, Jan T.
Offermann
- Abstract要約: 本稿では,全6次元ローレンツ対称性に対して最大で還元された入力の集合を用いた機械学習アーキテクチャを提案する。
結果として得られたネットワークは、モデル複雑さがはるかに低いにもかかわらず、既存の競合相手すべてを上回っていることを示す。
- 参考スコア(独自算出の注目度): 64.5726087590283
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Many current approaches to machine learning in particle physics use generic
architectures that require large numbers of parameters and disregard underlying
physics principles, limiting their applicability as scientific modeling tools.
In this work, we present a machine learning architecture that uses a set of
inputs maximally reduced with respect to the full 6-dimensional Lorentz
symmetry, and is fully permutation-equivariant throughout. We study the
application of this network architecture to the standard task of top quark
tagging and show that the resulting network outperforms all existing
competitors despite much lower model complexity. In addition, we present a
Lorentz-covariant variant of the same network applied to a 4-momentum
regression task.
- Abstract(参考訳): 素粒子物理学における機械学習に対する現在の多くのアプローチは、多数のパラメータを必要とし、基礎となる物理原理を無視し、科学モデリングツールとしての適用性を制限する汎用アーキテクチャを使用している。
本研究では,6次元ローレンツ対称性全体の入力集合を最大に縮小し,全置換同値である機械学習アーキテクチャを提案する。
我々は,このネットワークアーキテクチャをトップクォークタギングの標準タスクに適用し,モデルの複雑さがかなり低いにもかかわらず,ネットワークが既存の競合相手を上回っていることを示す。
さらに、4モーメントの回帰タスクに適用した同じネットワークのローレンツ共変変量を示す。
関連論文リスト
- Lorentz-Equivariant Geometric Algebra Transformers for High-Energy Physics [4.4970885242855845]
Lorentz Geometric Algebra Transformer (L-GATr)は高エネルギー物理のための新しい多目的アーキテクチャである。
L-GATrは、粒子物理学からの回帰および分類タスクで最初に実証された。
次に、L-GATrネットワークに基づく連続正規化フローであるローレンツ同変生成モデルを構築する。
論文 参考訳(メタデータ) (2024-05-23T17:15:41Z) - Universal Neural Functionals [67.80283995795985]
多くの現代の機械学習タスクでは、ウェイトスペース機能を処理することが難しい問題である。
最近の研究は、単純なフィードフォワードネットワークの置換対称性に同値な有望な重み空間モデルを開発した。
本研究は,任意の重み空間に対する置換同変モデルを自動的に構築するアルゴリズムを提案する。
論文 参考訳(メタデータ) (2024-02-07T20:12:27Z) - Explainable Equivariant Neural Networks for Particle Physics: PELICAN [51.02649432050852]
PELICANは、新しい置換同変であり、ローレンツ不変アグリゲーターネットワークである。
本稿では,タグ付け(分類)とローレンツ発泡トップクォークの再構成(回帰)の両文脈におけるPELICANアルゴリズムアーキテクチャについて述べる。
PELICANの適用範囲を、クォーク開始時とグルーオン開始時とを識別するタスクに拡張し、5種類のジェットを対象とするマルチクラス同定を行う。
論文 参考訳(メタデータ) (2023-07-31T09:08:40Z) - FAENet: Frame Averaging Equivariant GNN for Materials Modeling [123.19473575281357]
データ変換による任意のモデルE(3)-同変や不変化を実現するために,フレームアラグリング(SFA)に依存したフレキシブルなフレームワークを導入する。
本手法の有効性を理論的および実験的に証明し, 材料モデリングにおける精度と計算スケーラビリティを実証する。
論文 参考訳(メタデータ) (2023-04-28T21:48:31Z) - Semi-Equivariant GNN Architectures for Jet Tagging [1.6626046865692057]
本稿では,対称性検査と非制約演算を組み合わせた新しいアーキテクチャVecNetを提案し,物理インフォームドGNNの程度を学習・調整する。
私たちのような一般化されたアーキテクチャは、リソース制約のあるアプリケーションで最適なパフォーマンスを提供できることが分かりました。
論文 参考訳(メタデータ) (2022-02-14T18:57:12Z) - Generalization capabilities of neural networks in lattice applications [0.0]
翻訳等変ニューラルネットワークを用いた非同変ニューラルネットワークの利点について検討する。
我々の最良の同変アーキテクチャは、その非同変アーキテクチャよりも大幅に性能を向上し、一般化できることが示される。
論文 参考訳(メタデータ) (2021-12-23T11:48:06Z) - Frame Averaging for Invariant and Equivariant Network Design [50.87023773850824]
フレーム平均化(FA)は、既知の(バックボーン)アーキテクチャを新しい対称性タイプに不変あるいは同変に適応するためのフレームワークである。
FAモデルが最大表現力を持つことを示す。
我々は,新しいユニバーサルグラフニューラルネット(GNN),ユニバーサルユークリッド運動不変点クラウドネットワーク,およびユークリッド運動不変メッセージパッシング(MP)GNNを提案する。
論文 参考訳(メタデータ) (2021-10-07T11:05:23Z) - Lorentz Group Equivariant Neural Network for Particle Physics [58.56031187968692]
ローレンツ群の下での変換に関して完全に同値なニューラルネットワークアーキテクチャを提案する。
素粒子物理学における分類問題に対して、そのような同変構造は、比較的学習可能なパラメータの少ない非常に単純なモデルをもたらすことを実証する。
論文 参考訳(メタデータ) (2020-06-08T17:54:43Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。