論文の概要: Scaling Graph Neural Networks for Particle Track Reconstruction
- arxiv url: http://arxiv.org/abs/2504.04670v1
- Date: Mon, 07 Apr 2025 01:44:32 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-04-08 14:08:47.715341
- Title: Scaling Graph Neural Networks for Particle Track Reconstruction
- Title(参考訳): パーティクルトラック再構成のためのグラフニューラルネットワークのスケーリング
- Authors: Alok Tripathy, Alina Lazar, Xiangyang Ju, Paolo Calafiura, Katherine Yelick, Aydin Buluc,
- Abstract要約: 入力粒子グラフのサンプルをトレーニングするためのExa.TrkXパイプラインの改良を導入する。
我々は、GNNトレーニング用に導入されたパフォーマンス最適化を、拡張されたExa.TrkXパイプラインに適合するように適応する。
- 参考スコア(独自算出の注目度): 0.0
- License:
- Abstract: Particle track reconstruction is an important problem in high-energy physics (HEP), necessary to study properties of subatomic particles. Traditional track reconstruction algorithms scale poorly with the number of particles within the accelerator. The Exa.TrkX project, to alleviate this computational burden, introduces a pipeline that reduces particle track reconstruction to edge classification on a graph, and uses graph neural networks (GNNs) to produce particle tracks. However, this GNN-based approach is memory-prohibitive and skips graphs that would exceed GPU memory. We introduce improvements to the Exa.TrkX pipeline to train on samples of input particle graphs, and show that these improvements generalize to higher precision and recall. In addition, we adapt performance optimizations, introduced for GNN training, to fit our augmented Exa.TrkX pipeline. These optimizations provide a $2\times$ speedup over our baseline implementation in PyTorch Geometric.
- Abstract(参考訳): 粒子軌道再構成は高エネルギー物理学(HEP)において重要な問題であり、亜原子粒子の性質を研究するのに必要である。
従来の軌道再構成アルゴリズムは、加速器内の粒子の数で十分にスケールできない。
Exa.TrkXプロジェクトは、この計算負担を軽減するために、グラフ上のエッジ分類にパーティクルトラック再構成を還元するパイプラインを導入し、グラフニューラルネットワーク(GNN)を使用してパーティクルトラックを生成する。
しかし、このGNNベースのアプローチはメモリ禁止であり、GPUメモリを超えるグラフをスキップする。
入力粒子グラフのサンプルをトレーニングするためのExa.TrkXパイプラインの改良を導入し、これらの改善がより高精度でリコールできることを示す。
さらに、GNNトレーニング用に導入されたパフォーマンス最適化を適用して、拡張されたExa.TrkXパイプラインに適合する。
これらの最適化は、PyTorch Geometricのベースライン実装を2ドル99セントで高速化します。
関連論文リスト
- EggNet: An Evolving Graph-based Graph Attention Network for Particle Track Reconstruction [0.0]
我々は,一組のヒットから粒子トラックを直接再構成するワンショットOCアプローチを検討する。
このアプローチは、グラフを反復的に更新し、各グラフを横断するメッセージをより容易にする。
TrackMLデータセットに関する予備研究は、固定された入力グラフを必要とする方法と比較して、トラック性能が向上したことを示している。
論文 参考訳(メタデータ) (2024-07-18T22:29:24Z) - Spatio-Spectral Graph Neural Networks [50.277959544420455]
比スペクトルグラフネットワーク(S$2$GNN)を提案する。
S$2$GNNは空間的およびスペクトル的にパラメータ化されたグラフフィルタを組み合わせる。
S$2$GNNsは、MPGNNsよりも厳密な近似理論誤差境界を生じる。
論文 参考訳(メタデータ) (2024-05-29T14:28:08Z) - Spatiotemporal Forecasting Meets Efficiency: Causal Graph Process Neural Networks [5.703629317205571]
Causal Graph Graph Processs (CGP) は、リレーショナルフィールド層の代わりにグラフフィルタを使用してパラメータを削減し、メモリ消費を最小限にする代替手段を提供する。
本稿では,CGPとGNNを組み合わせて時間予測を行う非線形モデルを提案する。CGProNetは高階グラフフィルタを採用し,パラメータの少ないモデルに最適化し,メモリ使用量を削減し,実行効率を向上させる。
論文 参考訳(メタデータ) (2024-05-29T08:37:48Z) - Efficient Heterogeneous Graph Learning via Random Projection [58.4138636866903]
不均一グラフニューラルネットワーク(HGNN)は、異種グラフを深層学習するための強力なツールである。
最近のプリ計算ベースのHGNNは、一時間メッセージパッシングを使用して不均一グラフを正規形テンソルに変換する。
我々はRandom Projection Heterogeneous Graph Neural Network (RpHGNN) というハイブリッド計算前HGNNを提案する。
論文 参考訳(メタデータ) (2023-10-23T01:25:44Z) - Low Latency Edge Classification GNN for Particle Trajectory Tracking on
FPGAs [10.146819379097249]
本稿では,低レイテンシ粒子追跡のためのFPGA上での資源効率のよいGNNアーキテクチャを提案する。
Xilinx UltraScale+VU9Pの結果は,CPUとGPUでそれぞれ1625倍,GPUで1574倍の性能向上を示した。
論文 参考訳(メタデータ) (2023-06-20T06:57:24Z) - Comprehensive Graph Gradual Pruning for Sparse Training in Graph Neural
Networks [52.566735716983956]
本稿では,CGPと呼ばれるグラフの段階的プルーニングフレームワークを動的にGNNに提案する。
LTHに基づく手法とは異なり、提案手法では再学習を必要とせず、計算コストを大幅に削減する。
提案手法は,既存の手法の精度を一致させたり,あるいは超えたりしながら,トレーニングと推論の効率を大幅に向上させる。
論文 参考訳(メタデータ) (2022-07-18T14:23:31Z) - BGL: GPU-Efficient GNN Training by Optimizing Graph Data I/O and
Preprocessing [0.0]
グラフニューラルネットワーク(GNN)は、ディープニューラルネットワーク(DNN)の成功を非ユークリッドグラフデータに拡張した。
既存のシステムは、数十億のノードとエッジを持つ巨大なグラフをGPUでトレーニングする非効率である。
本稿では,ボトルネックに対処するための分散GNN学習システムであるBGLを提案する。
論文 参考訳(メタデータ) (2021-12-16T00:37:37Z) - Increase and Conquer: Training Graph Neural Networks on Growing Graphs [116.03137405192356]
本稿では,このグラフからBernoulliをサンプリングしたグラフ上でGNNをトレーニングすることで,WNN(Graphon Neural Network)を学習する問題を考察する。
これらの結果から着想を得た大規模グラフ上でGNNを学習するアルゴリズムを提案する。
論文 参考訳(メタデータ) (2021-06-07T15:05:59Z) - Unrolling of Deep Graph Total Variation for Image Denoising [106.93258903150702]
本稿では,従来のグラフ信号フィルタリングと深い特徴学習を併用して,競合するハイブリッド設計を提案する。
解釈可能な低パスグラフフィルタを用い、最先端のDL復調方式DnCNNよりも80%少ないネットワークパラメータを用いる。
論文 参考訳(メタデータ) (2020-10-21T20:04:22Z) - Distance-Weighted Graph Neural Networks on FPGAs for Real-Time Particle
Reconstruction in High Energy Physics [11.125632758828266]
FPGA上で1$mumathrms未満のレイテンシで実行できる距離重み付きグラフネットワークの設計方法について論じる。
本研究では,粒子衝突型加速器で動作する次世代熱量計における粒子の再構成と同定に関連する代表的課題について考察する。
我々は、圧縮されたモデルをファームウェアに変換し、FPGA上で実装する。
論文 参考訳(メタデータ) (2020-08-08T21:26:31Z) - Fast Graph Attention Networks Using Effective Resistance Based Graph
Sparsification [70.50751397870972]
FastGATは、スペクトルスペーシフィケーションを用いて、注目に基づくGNNを軽量にし、入力グラフの最適プルーニングを生成する手法である。
我々は,ノード分類タスクのための大規模実世界のグラフデータセット上でFastGATを実験的に評価した。
論文 参考訳(メタデータ) (2020-06-15T22:07:54Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。