論文の概要: A jet tagging algorithm of graph network with HaarPooling message
passing
- arxiv url: http://arxiv.org/abs/2210.13869v4
- Date: Mon, 14 Aug 2023 05:33:48 GMT
- ステータス: 処理完了
- システム内更新日: 2023-08-15 23:07:48.759119
- Title: A jet tagging algorithm of graph network with HaarPooling message
passing
- Title(参考訳): HaarPoolingメッセージパッシングを用いたグラフネットワークのジェットタグ付けアルゴリズム
- Authors: Fei Ma, Feiyi Liu, and Wei Li
- Abstract要約: 本稿では,HarPooling操作と組み合わせたグラフニューラルネットワーク(GNN)によるジェットイベントの解析手法を提案する。
HMPNetでは、HaarPoolingは異なる粒子の特徴を持つk平均のクラスタリングによって得られる追加情報を埋め込む。
本研究では,HaarPoolingの適切な情報選択がクォークグルーオンタグの精度を向上させることを示す。
- 参考スコア(独自算出の注目度): 5.588742166529457
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Recently methods of graph neural networks (GNNs) have been applied to solving
the problems in high energy physics (HEP) and have shown its great potential
for quark-gluon tagging with graph representation of jet events. In this paper,
we introduce an approach of GNNs combined with a HaarPooling operation to
analyze the events, called HaarPooling Message Passing neural network (HMPNet).
In HMPNet, HaarPooling not only extracts the features of graph, but embeds
additional information obtained by clustering of k-means of different particle
features. We construct Haarpooling from five different features: absolute
energy $\log E$, transverse momentum $\log p_T$, relative coordinates
$(\Delta\eta,\Delta\phi)$, the mixed ones $(\log E, \log p_T)$ and $(\log E,
\log p_T, \Delta\eta,\Delta\phi)$. The results show that an appropriate
selection of information for HaarPooling enhances the accuracy of quark-gluon
tagging, as adding extra information of $\log P_T$ to the HMPNet outperforms
all the others, whereas adding relative coordinates information
$(\Delta\eta,\Delta\phi)$ is not very effective. This implies that by adding
effective particle features from HaarPooling can achieve much better results
than solely pure message passing neutral network (MPNN) can do, which
demonstrates significant improvement of feature extraction via the pooling
process. Finally we compare the HMPNet study, ordering by $p_T$, with other
studies and prove that the HMPNet is also a good choice of GNN algorithms for
jet tagging.
- Abstract(参考訳): 近年,高エネルギー物理学 (HEP) における問題を解くためにグラフニューラルネットワーク (GNN) の手法が適用され, ジェット事象のグラフ表現を用いたクォークグルーオンタギングの大きな可能性を示している。
本稿では,HarPooling Message Passing Neural Network(HMPNet)と呼ばれる,GNNのアプローチとHaarPooling操作を組み合わせることで,事象を解析する手法を提案する。
HMPNetでは、HaarPoolingはグラフの特徴を抽出するだけでなく、異なる粒子特徴のk平均のクラスタリングによって得られる追加情報を埋め込む。
絶対エネルギー $\log E$, 横運動量 $\log p_T$, 相対座標 $(\Delta\eta,\Delta\phi)$, 混合エネルギー $(\log E, \log p_T)$, $(\log E, \log p_T, \Delta\eta,\Delta\phi)$ である。
その結果、HMPNetに$\log P_T$の余分な情報を付加すると、HarPoolingの適切な情報選択がクォークグルーオンタグの精度を高める一方、相対座標情報$(\Delta\eta,\Delta\phi)$は、あまり有効ではないことがわかった。
これは、HaarPoolingから有効なパーティクル機能を追加することで、単に純粋なメッセージパッシング中立ネットワーク(MPNN)ができることよりも、はるかに優れた結果が得られることを意味している。
最後に、HMPNet研究を$p_T$で順序付けし、他の研究と比較し、HMPNetがジェットタグ付けのためのGNNアルゴリズムのよい選択であることを示す。
関連論文リスト
- Spatio-Spectral Graph Neural Networks [50.277959544420455]
比スペクトルグラフネットワーク(S$2$GNN)を提案する。
S$2$GNNは空間的およびスペクトル的にパラメータ化されたグラフフィルタを組み合わせる。
S$2$GNNsは、MPGNNsよりも厳密な近似理論誤差境界を生じる。
論文 参考訳(メタデータ) (2024-05-29T14:28:08Z) - Graph Sparsification via Mixture of Graphs [67.40204130771967]
そこで我々はMixture-of-Graphs (MoG)を導入し、各ノードに対して動的に調整されたプルーニングソリューションを選択する。
MoGには複数のスパシファイアの専門家が組み込まれており、それぞれが独自のスパーシリティレベルとプルーニング基準によって特徴付けられ、各ノードに対して適切な専門家を選択する。
5つのGNNを備えた4つの大規模OGBデータセットと2つのスーパーピクセルデータセットの実験により、MoGはより高い空間レベルのサブグラフを識別することを示した。
論文 参考訳(メタデータ) (2024-05-23T07:40:21Z) - Seq-HGNN: Learning Sequential Node Representation on Heterogeneous Graph [57.2953563124339]
本稿では,シーケンシャルノード表現,すなわちSeq-HGNNを用いた新しい異種グラフニューラルネットワークを提案する。
Heterogeneous Graph Benchmark (HGB) と Open Graph Benchmark (OGB) の4つの広く使われているデータセットについて広範な実験を行った。
論文 参考訳(メタデータ) (2023-05-18T07:27:18Z) - Exponentially Improving the Complexity of Simulating the
Weisfeiler-Lehman Test with Graph Neural Networks [22.36443060418036]
非同型グラフの識別におけるグラフニューラルネットワーク(GNN)の表現力は、Weisfeiler-Lehmanグラフテストと全く同じであることを示す。
本稿では,GNN 上での WL テストの高速化について述べる。
論文 参考訳(メタデータ) (2022-11-06T22:38:49Z) - MLPInit: Embarrassingly Simple GNN Training Acceleration with MLP
Initialization [51.76758674012744]
大きなグラフ上でグラフニューラルネットワーク(GNN)をトレーニングするのは複雑で、非常に時間がかかる。
我々は、PeerInitと呼ばれるGNNトレーニングアクセラレーションに対して、恥ずかしく単純だが非常に効果的な方法を提案する。
論文 参考訳(メタデータ) (2022-09-30T21:33:51Z) - From Local to Global: Spectral-Inspired Graph Neural Networks [28.858773653743075]
グラフニューラルネットワーク(GNN)は、非ユークリッドデータのための強力なディープラーニング手法である。
MPNNは、局所グラフ地区の信号を集約して結合するメッセージパッシングアルゴリズムである。
MPNNは、過密や過密といった問題に悩まされる可能性がある。
論文 参考訳(メタデータ) (2022-09-24T17:19:00Z) - $p$-Laplacian Based Graph Neural Networks [27.747195341003263]
グラフネットワーク(GNN)は、グラフ上の半教師付きノード分類において優れた性能を示す。
我々は、離散正規化フレームワークからメッセージパッシング機構を導出する$p$GNNと呼ばれる新しい$p$LaplacianベースのGNNモデルを提案する。
新たなメッセージパッシング機構は低域通過フィルタと高域通過フィルタを同時に動作させることで,ホモ親和性グラフとヘテロ親和性グラフの両方に対して$p$GNNを有効にすることができることを示す。
論文 参考訳(メタデータ) (2021-11-14T13:16:28Z) - Node Feature Extraction by Self-Supervised Multi-scale Neighborhood
Prediction [123.20238648121445]
我々は、新しい自己教師型学習フレームワーク、グラフ情報支援ノード機能exTraction (GIANT)を提案する。
GIANT は eXtreme Multi-label Classification (XMC) 形式を利用しており、これはグラフ情報に基づいた言語モデルの微調整に不可欠である。
我々は,Open Graph Benchmarkデータセット上での標準GNNパイプラインよりもGIANTの方が優れた性能を示す。
論文 参考訳(メタデータ) (2021-10-29T19:55:12Z) - RaWaNet: Enriching Graph Neural Network Input via Random Walks on Graphs [0.0]
グラフニューラルネットワーク(GNN)の人気が高まっており、グラフで表されるデータに対して非常に有望な結果を示している。
本稿では,3つの選択された長さに基づいて,グラフのランダムなウォークデータ処理を提案する。すなわち,グラフ上の局所的および大域的ダイナミクスを捉えるために,長さ1,2の(正規)ウォークと長さ0,1$の分節ウォークを提案する。
本手法は, 処理ノードの特徴をネットワークに渡すことによって, 様々な分子データセット上で検証し, 分類および回帰処理を行う。
論文 参考訳(メタデータ) (2021-09-15T20:04:01Z) - Elastic Graph Neural Networks [32.805937635335255]
我々は$ell$と$ell$ベースのグラフ平滑化に基づくGNN(Elastic GNN)のファミリーを紹介する。
特に,GNNへの新規で汎用的なメッセージパッシング方式を提案する。
半教師付き学習タスクの実験では、提案したElastic GNNがベンチマークデータセットの適応性を向上させることが示されている。
論文 参考訳(メタデータ) (2021-07-05T01:36:01Z) - Scaling Graph Neural Networks with Approximate PageRank [64.92311737049054]
GNNにおける情報拡散の効率的な近似を利用したPPRGoモデルを提案する。
高速であることに加えて、PPRGoは本質的にスケーラブルであり、業界設定で見られるような大規模なデータセットに対して、自明に並列化することができる。
このグラフのすべてのノードに対するPPRGoのトレーニングとラベルの予測には1台のマシンで2分未満で、同じグラフ上の他のベースラインをはるかに上回ります。
論文 参考訳(メタデータ) (2020-07-03T09:30:07Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。