論文の概要: Jet tagging in the Lund plane with graph networks
- arxiv url: http://arxiv.org/abs/2012.08526v2
- Date: Thu, 11 Feb 2021 12:08:25 GMT
- ステータス: 処理完了
- システム内更新日: 2021-05-07 09:31:19.211596
- Title: Jet tagging in the Lund plane with graph networks
- Title(参考訳): グラフネットワークを用いたルンド平面におけるジェットタギング
- Authors: Fr\'ed\'eric A. Dreyer and Huilin Qu
- Abstract要約: LundNetは、グラフニューラルネットワークとジェット内の放射パターンの効率的な記述に依存する、新しいジェットタグ手法である。
従来の最先端アルゴリズムと比較して,トップタグ処理の性能は大幅に向上した。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The identification of boosted heavy particles such as top quarks or vector
bosons is one of the key problems arising in experimental studies at the Large
Hadron Collider. In this article, we introduce LundNet, a novel jet tagging
method which relies on graph neural networks and an efficient description of
the radiation patterns within a jet to optimally disentangle signatures of
boosted objects from background events. We apply this framework to a number of
different benchmarks, showing significantly improved performance for top
tagging compared to existing state-of-the-art algorithms. We study the
robustness of the LundNet taggers to non-perturbative and detector effects, and
show how kinematic cuts in the Lund plane can mitigate overfitting of the
neural network to model-dependent contributions. Finally, we consider the
computational complexity of this method and its scaling as a function of
kinematic Lund plane cuts, showing an order of magnitude improvement in speed
over previous graph-based taggers.
- Abstract(参考訳): トップクォークやベクターボソンのような高密度粒子の同定は、大型ハドロン衝突型加速器の実験で生じる重要な問題の一つである。
本稿では,グラフニューラルネットワークに基づく新しいジェットタグ付け手法であるlundnetと,ジェット内の放射パターンの効率的な記述により,ブースト対象物のシグネチャを背景イベントから最適に切り離す方法を提案する。
我々はこのフレームワークを多数の異なるベンチマークに適用し、既存の最先端アルゴリズムと比較して、トップタグのパフォーマンスを著しく改善した。
本研究では,非摂動および検出器効果に対する lundnet tagger のロバスト性について検討し,lund 平面の運動的切断がモデル依存的貢献に対するニューラルネットワークの過剰フィットをいかに緩和するかを示す。
最後に, この手法の計算複雑性とスケーリングを, 従来のグラフベースタグよりも高速な速度向上を図った, 運動論的Lund平面切断の関数として考える。
関連論文リスト
- Faster Inference Time for GNNs using coarsening [1.323700980948722]
粗い手法はグラフを小さくするために使われ、計算が高速化される。
これまでの調査では、推論中にコストに対処できなかった。
本稿では, サブグラフベース手法によるGNNのスケーラビリティ向上のための新しい手法を提案する。
論文 参考訳(メタデータ) (2024-10-19T06:27:24Z) - Graph Transformers for Large Graphs [57.19338459218758]
この研究は、モデルの特徴と重要な設計制約を識別することに焦点を当てた、単一の大規模グラフでの表現学習を前進させる。
この研究の重要な革新は、局所的な注意機構と組み合わされた高速な近傍サンプリング技術の作成である。
ogbn-products と snap-patents の3倍の高速化と16.8%の性能向上を報告し、ogbn-100M で LargeGT を5.9% の性能改善で拡張した。
論文 参考訳(メタデータ) (2023-12-18T11:19:23Z) - PCN: A Deep Learning Approach to Jet Tagging Utilizing Novel Graph Construction Methods and Chebyshev Graph Convolutions [0.0]
ジェットタグは高エネルギー物理実験における分類問題である。
現在のアプローチでは、複雑な衝突データに隠れたパターンを明らかにするためにディープラーニングを使用している。
可能な限り多くの情報をエンコードするジェットのグラフベース表現を提案する。
論文 参考訳(メタデータ) (2023-09-12T23:20:19Z) - Fast and Effective GNN Training with Linearized Random Spanning Trees [20.73637495151938]
ノード分類タスクにおいて,GNNをトレーニングするための,より効果的でスケーラブルなフレームワークを提案する。
提案手法は, ランダムに分布する木々の広範囲に分布するGNN重みを徐々に改善する。
これらの経路グラフのスパース性は、GNN訓練の計算負担を大幅に軽減する。
論文 参考訳(メタデータ) (2023-06-07T23:12:42Z) - Hyper-GST: Predict Metro Passenger Flow Incorporating GraphSAGE,
Hypergraph, Social-meaningful Edge Weights and Temporal Exploitation [4.698632626407558]
グラフベースのディープラーニングアルゴリズムは、グラフ構造を利用するが、いくつかの課題を提起する。
本研究では,エッジウェイト学習者を適用したGraphSAGEに基づくモデルを提案する。
ハイパーグラフや時間的利用モジュールも、パフォーマンス向上のためのアドオンとして構築されている。
論文 参考訳(メタデータ) (2022-11-09T16:04:45Z) - A Comprehensive Study on Large-Scale Graph Training: Benchmarking and
Rethinking [124.21408098724551]
グラフニューラルネットワーク(GNN)の大規模グラフトレーニングは、非常に難しい問題である
本稿では,既存の問題に対処するため,EnGCNという新たなアンサンブルトレーニング手法を提案する。
提案手法は,大規模データセット上でのSOTA(State-of-the-art)の性能向上を実現している。
論文 参考訳(メタデータ) (2022-10-14T03:43:05Z) - Towards Deeper Graph Neural Networks [63.46470695525957]
グラフ畳み込みは近傍の集約を行い、最も重要なグラフ操作の1つである。
いくつかの最近の研究で、この性能劣化は過度に滑らかな問題に起因している。
本研究では,大きな受容領域からの情報を適応的に組み込むディープ適応グラフニューラルネットワーク(DAGNN)を提案する。
論文 参考訳(メタデータ) (2020-07-18T01:11:14Z) - Fast Graph Attention Networks Using Effective Resistance Based Graph
Sparsification [70.50751397870972]
FastGATは、スペクトルスペーシフィケーションを用いて、注目に基づくGNNを軽量にし、入力グラフの最適プルーニングを生成する手法である。
我々は,ノード分類タスクのための大規模実世界のグラフデータセット上でFastGATを実験的に評価した。
論文 参考訳(メタデータ) (2020-06-15T22:07:54Z) - Structural Temporal Graph Neural Networks for Anomaly Detection in
Dynamic Graphs [54.13919050090926]
本稿では,動的グラフの異常エッジを検出するために,エンドツーエンドの時間構造グラフニューラルネットワークモデルを提案する。
特に,まずターゲットエッジを中心にした$h$ホップ囲むサブグラフを抽出し,各ノードの役割を識別するノードラベル機能を提案する。
抽出した特徴に基づき,GRU(Gated Recurrent Unit)を用いて,異常検出のための時間的情報を取得する。
論文 参考訳(メタデータ) (2020-05-15T09:17:08Z) - Towards an Efficient and General Framework of Robust Training for Graph
Neural Networks [96.93500886136532]
グラフニューラルネットワーク(GNN)は、いくつかの基本的な推論タスクに大きく進歩している。
GNNの目覚ましい性能にもかかわらず、グラフ構造上の摂動を慎重に作り、誤った予測を下すことが観察されている。
我々は,強靭なGNNを得るために,欲求探索アルゴリズムとゼロ階法を利用する汎用フレームワークを提案する。
論文 参考訳(メタデータ) (2020-02-25T15:17:58Z) - Ripple Walk Training: A Subgraph-based training framework for Large and
Deep Graph Neural Network [10.36962234388739]
本稿では,深部および大規模グラフニューラルネットワークのための一般的なサブグラフベーストレーニングフレームワークであるRipple Walk Training(RWT)を提案する。
RWTは、全グラフからサブグラフをサンプリングしてミニバッチを構成し、全GNNはミニバッチ勾配に基づいて更新される。
グラフの異なるサイズに関する大規模な実験は、様々なGNNを訓練する際のRWTの有効性と効率を実証している。
論文 参考訳(メタデータ) (2020-02-17T19:07:41Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。