論文の概要: Equivariance Is Not All You Need: Characterizing the Utility of
Equivariant Graph Neural Networks for Particle Physics Tasks
- arxiv url: http://arxiv.org/abs/2311.03094v1
- Date: Mon, 6 Nov 2023 13:37:00 GMT
- ステータス: 処理完了
- システム内更新日: 2023-11-07 14:27:29.306895
- Title: Equivariance Is Not All You Need: Characterizing the Utility of
Equivariant Graph Neural Networks for Particle Physics Tasks
- Title(参考訳): 等分散は必要なすべてではない:粒子物理タスクにおける等変グラフニューラルネットワークの有用性の評価
- Authors: Savannah Thais, Daniel Murnane
- Abstract要約: Equivariant Graph Neural Networks (GNN) は、物理データから直接物理系の対称性を組み込むため、最近、物理データから学習する一般的な方法となっている。
本稿では、実世界の粒子物理再構成タスクを評価ベッドとして利用することにより、同変GNNの利点を総合的に評価する。
- 参考スコア(独自算出の注目度): 0.060998359915727114
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Incorporating inductive biases into ML models is an active area of ML
research, especially when ML models are applied to data about the physical
world. Equivariant Graph Neural Networks (GNNs) have recently become a popular
method for learning from physics data because they directly incorporate the
symmetries of the underlying physical system. Drawing from the relevant
literature around group equivariant networks, this paper presents a
comprehensive evaluation of the proposed benefits of equivariant GNNs by using
real-world particle physics reconstruction tasks as an evaluation test-bed. We
demonstrate that many of the theoretical benefits generally associated with
equivariant networks may not hold for realistic systems and introduce
compelling directions for future research that will benefit both the scientific
theory of ML and physics applications.
- Abstract(参考訳): インダクティブバイアスをMLモデルに組み込むことは、特にMLモデルが物理世界に関するデータに適用された場合、ML研究の活発な領域である。
Equivariant Graph Neural Networks (GNN) は、物理データから直接物理系の対称性を組み込むため、最近、物理データから学習する一般的な方法となっている。
本稿では, 群同値ネットワークに関する関連文献から, 実世界の素粒子物理再構成課題を評価テストベッドとして用いることで, 等価gnnの利点を包括的に評価する。
等変ネットワークに関連する理論上の利点の多くは、現実的なシステムには当てはまらない可能性があり、MLの科学理論と物理学の応用の両方に利益をもたらすであろう将来の研究に説得力のある方向を導入できることを実証する。
関連論文リスト
- DimOL: Dimensional Awareness as A New 'Dimension' in Operator Learning [63.5925701087252]
本稿では,DimOL(Dimension-aware Operator Learning)を紹介し,次元解析から洞察を得る。
DimOLを実装するために,FNOおよびTransformerベースのPDEソルバにシームレスに統合可能なProdLayerを提案する。
経験的に、DimOLモデルはPDEデータセット内で最大48%のパフォーマンス向上を達成する。
論文 参考訳(メタデータ) (2024-10-08T10:48:50Z) - Physics-informed UNets for Discovering Hidden Elasticity in
Heterogeneous Materials [0.0]
弾性インバージョンのための新しいUNetベースニューラルネットワークモデル(El-UNet)を開発した。
完全接続された物理インフォームドニューラルネットワークと比較して,El-UNetによる精度と計算コストの両面で優れた性能を示す。
論文 参考訳(メタデータ) (2023-06-01T23:35:03Z) - FAENet: Frame Averaging Equivariant GNN for Materials Modeling [123.19473575281357]
データ変換による任意のモデルE(3)-同変や不変化を実現するために,フレームアラグリング(SFA)に依存したフレキシブルなフレームワークを導入する。
本手法の有効性を理論的および実験的に証明し, 材料モデリングにおける精度と計算スケーラビリティを実証する。
論文 参考訳(メタデータ) (2023-04-28T21:48:31Z) - Equivariant Graph Neural Networks for Charged Particle Tracking [1.6626046865692057]
EuclidNetは荷電粒子追跡のための新しい対称性等価GNNである。
TrackMLデータセット上の最先端のインタラクションネットワークに対してベンチマークを行う。
以上の結果から,EuclidNetは小規模なモデルスケールでほぼ最先端の性能を達成できることが示唆された。
論文 参考訳(メタデータ) (2023-04-11T15:43:32Z) - Learning Physical Dynamics with Subequivariant Graph Neural Networks [99.41677381754678]
グラフニューラルネットワーク(GNN)は、物理力学を学習するための一般的なツールとなっている。
物理法則は、モデル一般化に必須な帰納バイアスである対称性に従属する。
本モデルは,RigidFall上でのPhysylonと2倍低ロールアウトMSEの8つのシナリオにおいて,平均3%以上の接触予測精度の向上を実現している。
論文 参考訳(メタデータ) (2022-10-13T10:00:30Z) - Equivariant Graph Mechanics Networks with Constraints [83.38709956935095]
本稿では,グラフ力学ネットワーク(GMN)を提案する。
GMNは、一般化された座標により、構造体の前方運動学情報(位置と速度)を表す。
大規模な実験は、予測精度、制約満足度、データ効率の観点から、最先端のGNNと比較してGMNの利点を支持する。
論文 参考訳(メタデータ) (2022-03-12T14:22:14Z) - Equivariant vector field network for many-body system modeling [65.22203086172019]
Equivariant Vector Field Network (EVFN) は、新しい同変層と関連するスカラー化およびベクトル化層に基づいて構築されている。
シミュレーションされたニュートン力学系の軌跡を全観測データと部分観測データで予測する手法について検討した。
論文 参考訳(メタデータ) (2021-10-26T14:26:25Z) - Physical invariance in neural networks for subgrid-scale scalar flux
modeling [5.333802479607541]
物理インフォームドニューラルネットワーク(NN)を用いた3次元乱流非圧縮性流れのサブグリッドスケールスカラーフラックスをモデル化するための新しい戦略を提案する。
提案した変換不変NNモデルは、純粋にデータ駆動モデルとパラメトリックなサブグリッドスケールモデルの両方より優れていることを示す。
論文 参考訳(メタデータ) (2020-10-09T16:09:54Z) - Parsimonious neural networks learn interpretable physical laws [77.34726150561087]
本稿では、ニューラルネットワークと進化的最適化を組み合わせたパシモニクスニューラルネットワーク(PNN)を提案し、精度とパシモニクスのバランスをとるモデルを求める。
アプローチのパワーと汎用性は、古典力学のモデルを開発し、基本特性から材料の融解温度を予測することによって実証される。
論文 参考訳(メタデータ) (2020-05-08T16:15:47Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。