論文の概要: Explainable Equivariant Neural Networks for Particle Physics: PELICAN
- arxiv url: http://arxiv.org/abs/2307.16506v1
- Date: Mon, 31 Jul 2023 09:08:40 GMT
- ステータス: 処理完了
- システム内更新日: 2023-08-01 15:19:53.996979
- Title: Explainable Equivariant Neural Networks for Particle Physics: PELICAN
- Title(参考訳): 粒子物理学のための説明可能な同変ニューラルネットワーク:PELICAN
- Authors: Alexander Bogatskiy, Timothy Hoffman, David W. Miller, Jan T.
Offermann, Xiaoyang Liu
- Abstract要約: 本稿では, PELICAN の機械学習アルゴリズムアーキテクチャについて, ローレンツ発泡トップクォークのタグ付けと再構成(回帰)の両面から検討する。
PELICANは、複雑性の低減、解釈可能性の向上、生のパフォーマンスの面でのメリットを示す、基本的に対称なグループベースのアーキテクチャを採用している。
- 参考スコア(独自算出の注目度): 71.83104517265434
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We present a comprehensive study of the PELICAN machine learning algorithm
architecture in the context of both tagging (classification) and reconstructing
(regression) Lorentz-boosted top quarks, including the difficult task of
specifically identifying and measuring the $W$-boson inside the dense
environment of the boosted hadronic final state. PELICAN is a novel permutation
equivariant and Lorentz invariant or covariant aggregator network designed to
overcome common limitations found in architectures applied to particle physics
problems. Compared to many approaches that use non-specialized architectures
that neglect underlying physics principles and require very large numbers of
parameters, PELICAN employs a fundamentally symmetry group-based architecture
that demonstrates benefits in terms of reduced complexity, increased
interpretability, and raw performance. When tested on the standard task of
Lorentz-boosted top quark tagging, PELICAN outperforms existing competitors
with much lower model complexity and high sample efficiency. On the less common
and more complex task of four-momentum regression, PELICAN also outperforms
hand-crafted algorithms. We discuss the implications of symmetry-restricted
architectures for the wider field of machine learning for physics.
- Abstract(参考訳): 本稿では,パギング(分類)と再構成(回帰)の両方の文脈におけるペリカン機械学習アルゴリズムアーキテクチャの包括的研究を行い,ハドロン状態の密集した環境内でw$-bosonを特定・測定する困難なタスクを含むローレンツブーストトップクォークについて述べる。
permutation equivariant and lorentz invariant or covariant aggregator network(ペリカン)は、素粒子物理学問題に適用されるアーキテクチャで見られる共通の制限を克服するために設計された、新しい置換同変および共変アグリゲータネットワークである。
基礎となる物理原理を無視し、非常に多くのパラメータを必要とする非特殊化アーキテクチャを使用する多くのアプローチと比較して、PELICANは、複雑性の低減、解釈可能性の向上、生のパフォーマンスの面でのメリットを示す、根本的に対称なグループベースのアーキテクチャを採用している。
Lorentz-boosted top quark taggingの標準的なタスクでテストすると、PELICANは既存の競合よりはるかに低いモデル複雑さと高いサンプル効率で性能を向上する。
4モーメント回帰のより一般的で複雑なタスクでは、PELICANは手作りのアルゴリズムよりも優れている。
物理分野における機械学習の幅広い分野における対称性制限アーキテクチャの意義について論じる。
関連論文リスト
- Lorentz-Equivariant Geometric Algebra Transformers for High-Energy Physics [4.4970885242855845]
Lorentz Geometric Algebra Transformer (L-GATr)は高エネルギー物理のための新しい多目的アーキテクチャである。
L-GATrは、粒子物理学からの回帰および分類タスクで最初に実証された。
次に、L-GATrネットワークに基づく連続正規化フローであるローレンツ同変生成モデルを構築する。
論文 参考訳(メタデータ) (2024-05-23T17:15:41Z) - 19 Parameters Is All You Need: Tiny Neural Networks for Particle Physics [52.42485649300583]
本稿では,ローレンツ型および置換対称型アーキテクチャPELICANの低遅延ニューラルネットワークへの応用の可能性を示す。
トップクォークジェットタグのバイナリ分類タスクと比較すると,最大19のトレーニング可能なパラメータで,数万のパラメータでジェネリックアーキテクチャを上回る性能を示す。
論文 参考訳(メタデータ) (2023-10-24T18:51:22Z) - PELICAN: Permutation Equivariant and Lorentz Invariant or Covariant
Aggregator Network for Particle Physics [64.5726087590283]
本稿では,全6次元ローレンツ対称性に対して最大で還元された入力の集合を用いた機械学習アーキテクチャを提案する。
結果として得られたネットワークは、モデル複雑さがはるかに低いにもかかわらず、既存の競合相手すべてを上回っていることを示す。
論文 参考訳(メタデータ) (2022-11-01T13:36:50Z) - Tunable Complexity Benchmarks for Evaluating Physics-Informed Neural
Networks on Coupled Ordinary Differential Equations [64.78260098263489]
本研究では,より複雑に結合した常微分方程式(ODE)を解く物理インフォームドニューラルネットワーク(PINN)の能力を評価する。
PINNの複雑性が増大するにつれて,これらのベンチマークに対する正しい解が得られないことが示される。
PINN損失のラプラシアンは,ネットワーク容量の不足,ODEの条件の低下,局所曲率の高さなど,いくつかの理由を明らかにした。
論文 参考訳(メタデータ) (2022-10-14T15:01:32Z) - Equivariant Transduction through Invariant Alignment [71.45263447328374]
グループ内ハードアライメント機構を組み込んだ,新しいグループ同変アーキテクチャを提案する。
我々のネットワーク構造は、既存のグループ同変アプローチよりも強い同変特性を発達させることができる。
また、SCANタスクにおいて、従来のグループ同変ネットワークよりも経験的に優れていたことが判明した。
論文 参考訳(メタデータ) (2022-09-22T11:19:45Z) - Physics-Guided Problem Decomposition for Scaling Deep Learning of
High-dimensional Eigen-Solvers: The Case of Schr\"{o}dinger's Equation [8.80823317679047]
ディープニューラルネットワーク(NN)は、高次元固有値方程式を解くための従来のシミュレーション駆動アプローチの代替として提案されている。
本稿では,高次元固有ベクトルを単純なサブタスクに分解する複雑な回帰タスクを物理知識を用いて分解する。
量子力学におけるSchr"odinger's Equationに対する物理誘導問題分解の有効性を実証する。
論文 参考訳(メタデータ) (2022-02-12T05:59:08Z) - Lorentz Group Equivariant Neural Network for Particle Physics [58.56031187968692]
ローレンツ群の下での変換に関して完全に同値なニューラルネットワークアーキテクチャを提案する。
素粒子物理学における分類問題に対して、そのような同変構造は、比較的学習可能なパラメータの少ない非常に単純なモデルをもたらすことを実証する。
論文 参考訳(メタデータ) (2020-06-08T17:54:43Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。