論文の概要: Vision Transformers for End-to-End Quark-Gluon Jet Classification from Calorimeter Images
- arxiv url: http://arxiv.org/abs/2506.14934v1
- Date: Tue, 17 Jun 2025 19:32:04 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-06-19 19:35:51.465092
- Title: Vision Transformers for End-to-End Quark-Gluon Jet Classification from Calorimeter Images
- Title(参考訳): カロリメータ画像を用いた端端から端へのクォーク・グルーオンジェット分類のための視覚変換器
- Authors: Md Abrar Jahin, Shahriar Soudeep, Arian Rahman Aditta, M. F. Mridha, Nafiz Fahad, Md. Jakir Hossen,
- Abstract要約: Vision Transformer (ViT) アーキテクチャは、グローバルなコンテキスト情報のモデリングで有名である。
ViTベースのモデルは、F1スコア、ROC-AUC、精度で確立されたCNNベースラインを一貫して上回る。
この研究は、カロリー画像に基づくジェット分類にViTアーキテクチャを適用するための最初の体系的枠組みと堅牢な性能基準を確立する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Distinguishing between quark- and gluon-initiated jets is a critical and challenging task in high-energy physics, pivotal for improving new physics searches and precision measurements at the Large Hadron Collider. While deep learning, particularly Convolutional Neural Networks (CNNs), has advanced jet tagging using image-based representations, the potential of Vision Transformer (ViT) architectures, renowned for modeling global contextual information, remains largely underexplored for direct calorimeter image analysis, especially under realistic detector and pileup conditions. This paper presents a systematic evaluation of ViTs and ViT-CNN hybrid models for quark-gluon jet classification using simulated 2012 CMS Open Data. We construct multi-channel jet-view images from detector-level energy deposits (ECAL, HCAL) and reconstructed tracks, enabling an end-to-end learning approach. Our comprehensive benchmarking demonstrates that ViT-based models, notably ViT+MaxViT and ViT+ConvNeXt hybrids, consistently outperform established CNN baselines in F1-score, ROC-AUC, and accuracy, highlighting the advantage of capturing long-range spatial correlations within jet substructure. This work establishes the first systematic framework and robust performance baselines for applying ViT architectures to calorimeter image-based jet classification using public collider data, alongside a structured dataset suitable for further deep learning research in this domain.
- Abstract(参考訳): クォーク点火ジェットとグルーオン点火ジェットの区別は、高エネルギー物理学において重要な課題であり、新しい物理探索の改善と大型ハドロン衝突型加速器の精度測定に欠かせない。
ディープラーニング、特に畳み込みニューラルネットワーク(CNN)は、画像ベースの表現を用いた高度なジェットタグ付けを備えているが、世界的文脈情報モデリングで有名なビジョントランスフォーマー(ViT)アーキテクチャの可能性は、特に現実的な検出器や積み上げ条件下では、直接のカロリー画像解析には未熟である。
シミュレーション2012 CMSオープンデータを用いたクォークグルーオンジェット分類のためのViTとViT-CNNハイブリッドモデルの系統評価を行った。
検出器レベルのエネルギー堆積物(ECAL, HCAL)と再構成トラックから多チャンネルジェットビュー画像を構築し, エンドツーエンドの学習アプローチを実現する。
我々の総合的なベンチマークでは、VT+MaxViTとViT+ConvNeXtハイブリッドは、F1スコア、ROC-AUC、精度において確立されたCNNベースラインを一貫して上回り、ジェットサブストラクチャ内の長距離空間相関をキャプチャする利点を浮き彫りにしている。
この研究は、この領域におけるさらなる深層学習研究に適した構造化データセットとともに、パブリックコライダーデータを用いて、VTアーキテクチャをカロリー画像ベースジェット分類に適用するための最初の体系的枠組みと堅牢なパフォーマンスベースラインを確立する。
関連論文リスト
- Pan-Arctic Permafrost Landform and Human-built Infrastructure Feature Detection with Vision Transformers and Location Embeddings [1.2895931807247418]
視覚変換器(ViT)は、注意機構を介して長距離依存関係とグローバルコンテキストをキャプチャする利点を提供する。
ViTは、自己教師付き学習による事前トレーニングをサポートし、北極の特徴検出におけるラベル付きデータの共通制限を補完する。
本研究は,(1)高分解能北極リモートセンシングタスクのための特徴抽出器としての事前学習型ViTの適合性,(2)画像と位置情報の埋め込みの利点について検討する。
論文 参考訳(メタデータ) (2025-06-03T13:34:01Z) - On Vision Transformers for Classification Tasks in Side-Scan Sonar Imagery [0.0]
サイドスキャンソナー (SSS) 画像は海底の人工物体の分類においてユニークな課題を呈している。
本稿では、SSS画像のバイナリ分類タスクによく使用されるCNNアーキテクチャとともに、VTモデルの性能を厳格に比較する。
ViTベースのモデルは、f1スコア、精度、リコール、精度の指標で優れた分類性能を示す。
論文 参考訳(メタデータ) (2024-09-18T14:36:50Z) - HEAL-ViT: Vision Transformers on a spherical mesh for medium-range weather forecasting [0.14504054468850663]
球面メッシュ上でのViTモデルを用いた新しいアーキテクチャであるHEAL-ViTを提案する。
HEAL-ViTは、主要な指標でECMWF IFSを上回った天気予報を生成する。
論文 参考訳(メタデータ) (2024-02-14T22:10:52Z) - Hypergraph Transformer for Semi-Supervised Classification [50.92027313775934]
我々は新しいハイパーグラフ学習フレームワークHyperGraph Transformer(HyperGT)を提案する。
HyperGTはTransformerベースのニューラルネットワークアーキテクチャを使用して、すべてのノードとハイパーエッジのグローバル相関を効果的に検討する。
局所接続パターンを保ちながら、グローバルな相互作用を効果的に組み込むことで、包括的なハイパーグラフ表現学習を実現する。
論文 参考訳(メタデータ) (2023-12-18T17:50:52Z) - Improved particle-flow event reconstruction with scalable neural networks for current and future particle detectors [1.4609888393206634]
電子-陽電子衝突における事象再構成のためのスケーラブルな機械学習モデルについて, フル検出器シミュレーションに基づく検討を行った。
グラフニューラルネットワークとカーネルベースのトランスフォーマーを比較し、現実的な再構築を実現しつつ、操作を回避できることを実証する。
最良のグラフニューラルネットワークモデルでは、ルールベースのアルゴリズムと比較して、ジェット横運動量分解能が最大50%向上している。
論文 参考訳(メタデータ) (2023-09-13T08:16:15Z) - Equivariant Graph Neural Networks for Charged Particle Tracking [1.6626046865692057]
EuclidNetは荷電粒子追跡のための新しい対称性等価GNNである。
TrackMLデータセット上の最先端のインタラクションネットワークに対してベンチマークを行う。
以上の結果から,EuclidNetは小規模なモデルスケールでほぼ最先端の性能を達成できることが示唆された。
論文 参考訳(メタデータ) (2023-04-11T15:43:32Z) - DepthFormer: Exploiting Long-Range Correlation and Local Information for
Accurate Monocular Depth Estimation [50.08080424613603]
高精度な単分子深度推定には長距離相関が不可欠である。
我々は,このグローバルコンテキストを効果的な注意機構でモデル化するためにTransformerを活用することを提案する。
提案したモデルであるDepthFormerは、最先端のモノクル深度推定手法をはるかに超えている。
論文 参考訳(メタデータ) (2022-03-27T05:03:56Z) - Vision Transformers are Robust Learners [65.91359312429147]
ビジョントランスフォーマー(ViT)の一般的な腐敗や摂動、分布シフト、自然逆転例に対する堅牢性について検討します。
ViTsが実際により堅牢な学習者である理由を説明するために、定量的および定性的な指標を提供する分析を提示します。
論文 参考訳(メタデータ) (2021-05-17T02:39:22Z) - TransMOT: Spatial-Temporal Graph Transformer for Multiple Object
Tracking [74.82415271960315]
映像内の物体間の空間的・時間的相互作用を効率的にモデル化するソリューションであるTransMOTを提案する。
TransMOTは従来のTransformerよりも計算効率が高いだけでなく、トラッキング精度も向上している。
提案手法は、MOT15、MOT16、MOT17、MOT20を含む複数のベンチマークデータセット上で評価される。
論文 参考訳(メタデータ) (2021-04-01T01:49:05Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。