論文の概要: JetFormer: A Scalable and Efficient Transformer for Jet Tagging from Offline Analysis to FPGA Triggers
- arxiv url: http://arxiv.org/abs/2601.17215v1
- Date: Fri, 23 Jan 2026 22:58:25 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-27 15:23:07.422429
- Title: JetFormer: A Scalable and Efficient Transformer for Jet Tagging from Offline Analysis to FPGA Triggers
- Title(参考訳): JetFormer: オフライン解析からFPGAトリガーへのジェットタグのためのスケーラブルで効率的なトランスフォーマー
- Authors: Ruoqing Zheng, Chang Sun, Qibin Liu, Lauri Laatu, Arianna Cox, Benedikt Maier, Alexander Tapper, Jose G. F. Coutinho, Wayne Luk, Zhiqiang Que,
- Abstract要約: 大型ハドロン衝突型加速器(LHC)における粒子ジェットタグ付けのための多用途でスケーラブルなエンコーダのみのトランスフォーマアーキテクチャであるJetFormerを提案する。
特定のデプロイメントレシシシに合わせて調整される従来のアプローチとは異なり、JetFormerはジェットタグのシナリオの全範囲にわたって効果的に動作するように設計されている。
このモデルは、明示的なペアワイズ相互作用の入力に頼ることなく、可変長の粒子特徴集合を処理するが、最先端の手法よりも優れた性能を実現する。
- 参考スコア(独自算出の注目度): 41.229196563303795
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We present JetFormer, a versatile and scalable encoder-only Transformer architecture for particle jet tagging at the Large Hadron Collider (LHC). Unlike prior approaches that are often tailored to specific deployment regimes, JetFormer is designed to operate effectively across the full spectrum of jet tagging scenarios, from high-accuracy offline analysis to ultra-low-latency online triggering. The model processes variable-length sets of particle features without relying on input of explicit pairwise interactions, yet achieves competitive or superior performance compared to state-of-the-art methods. On the large-scale JetClass dataset, a large-scale JetFormer matches the accuracy of the interaction-rich ParT model (within 0.7%) while using 37.4% fewer FLOPs, demonstrating its computational efficiency and strong generalization. On benchmark HLS4ML 150P datasets, JetFormer consistently outperforms existing models such as MLPs, Deep Sets, and Interaction Networks by 3-4% in accuracy. To bridge the gap to hardware deployment, we further introduce a hardware-aware optimization pipeline based on multi-objective hyperparameter search, yielding compact variants like JetFormer-tiny suitable for FPGA-based trigger systems with sub-microsecond latency requirements. Through structured pruning and quantization, we show that JetFormer can be aggressively compressed with minimal accuracy loss. By unifying high-performance modeling and deployability within a single architectural framework, JetFormer provides a practical pathway for deploying Transformer-based jet taggers in both offline and online environments at the LHC. Code is available at https://github.com/walkieq/JetFormer.
- Abstract(参考訳): 大型ハドロン衝突型加速器(LHC)における粒子ジェットタグ付けのための多用途でスケーラブルなエンコーダのみのトランスフォーマーアーキテクチャであるJetFormerを提案する。
JetFormerは、しばしば特定のデプロイメントレシシシに合わせて調整された従来のアプローチとは異なり、高精度オフライン分析から超低レイテンシオンライントリガに至るまで、ジェットタグシナリオの全範囲にわたって効果的に動作するように設計されている。
モデルは、明示的なペアワイズ相互作用の入力に頼ることなく、可変長の粒子特徴集合を処理するが、最先端の手法と比較して、競争力や優れた性能を達成する。
大規模JetClassデータセットでは、大規模JetFormerは相互作用に富んだParTモデルの精度(0.7%)と37.4%のFLOPを削減し、その計算効率と強力な一般化を実証する。
ベンチマークHLS4ML 150Pデータセットでは、JetFormerは、MLP、Deep Sets、Interaction Networksといった既存のモデルを3~4%精度で、一貫して上回っている。
ハードウェアデプロイメントとのギャップを埋めるため,マルチオブジェクトのハイパーパラメータ探索に基づくハードウェア対応最適化パイプラインを導入し,FPGAベースのサブマイクロ秒レイテンシ要求のトリガシステムに適したJetFormer-tinyのようなコンパクトなバリエーションを実現する。
構造化プルーニングと量子化により,JetFormerは最小限の精度で積極的に圧縮可能であることを示す。
単一のアーキテクチャフレームワーク内で高性能なモデリングとデプロイ性を統合することで、JetFormerは、TransformerベースのジェットタグをLHCのオフライン環境とオンライン環境の両方にデプロイするための実用的な経路を提供する。
コードはhttps://github.com/walkieq/JetFormer.comで入手できる。
関連論文リスト
- Sub-microsecond Transformers for Jet Tagging on FPGAs [36.414144954711865]
本稿では,最新の高エネルギー物理ベンチマークの競合性能を実現するFPGA上でのサブマイクロ秒変圧器の実装について述べる。
トランスフォーマーは、CERN Large Hadron Collider (LHC)でのジェットタグ付けを含む、現代の機械学習アプリケーションにおける複数のタスクにおいて、例外的なパフォーマンスを示している。
この研究は、高輝度LHCの次世代トリガーシステムを進歩させ、高エネルギー物理学などにおけるリアルタイム応用にトランスフォーマーを使用することを可能にした。
論文 参考訳(メタデータ) (2025-10-26T23:13:00Z) - TrackCore-F: Deploying Transformer-Based Subatomic Particle Tracking on FPGAs [0.2851702684899107]
我々はモノリシックなトランスフォーマー合成のためのツールを開発することを目指しており、特に推論をターゲットにしている。
当社の主なユースケースは、TrackFormersプロジェクトから派生した、追跡のための2つの機械学習モデル設計です。
論文 参考訳(メタデータ) (2025-09-30T14:44:43Z) - PT$^2$-LLM: Post-Training Ternarization for Large Language Models [52.4629647715623]
大きな言語モデル(LLM)は、様々なタスクにまたがる印象的な機能を示しているが、その大きなメモリと計算能力は、デプロイメントを妨げている。
PT$2$-LLMを提案する。
その中核は2段精製パイプラインを備えた非対称3次量子化器である。
論文 参考訳(メタデータ) (2025-09-27T03:01:48Z) - Quasar-ViT: Hardware-Oriented Quantization-Aware Architecture Search for Vision Transformers [56.37495946212932]
視覚変換器(ViT)は、畳み込みニューラルネットワーク(CNN)と比較して、コンピュータビジョンタスクにおいて優れた精度を示す。
ハードウェア指向の量子化対応アーキテクチャ検索フレームワークであるQuasar-ViTを提案する。
論文 参考訳(メタデータ) (2024-07-25T16:35:46Z) - JetSeg: Efficient Real-Time Semantic Segmentation Model for Low-Power
GPU-Embedded Systems [0.0]
本稿では,JetSegと呼ばれるリアルタイムセマンティックセグメンテーションのための効率的なモデルを提案する。
JetSegはJetNetと呼ばれるエンコーダと改良されたRegSegデコーダで構成されている。
提案手法は,46.70Mパラメータと5.14%のGFLOPを削減し,最先端のリアルタイムエンコーダデコーダモデルより優れている。
論文 参考訳(メタデータ) (2023-05-19T04:07:26Z) - EdgeYOLO: An Edge-Real-Time Object Detector [69.41688769991482]
本稿では, 最先端のYOLOフレームワークをベースとした, 効率的で低複雑さかつアンカーフリーな物体検出器を提案する。
我々は,訓練中の過剰適合を効果的に抑制する拡張データ拡張法を開発し,小型物体の検出精度を向上させるためにハイブリッドランダム損失関数を設計する。
私たちのベースラインモデルは、MS 2017データセットで50.6%のAP50:95と69.8%のAP50、VisDrone 2019-DETデータセットで26.4%のAP50と44.8%のAP50に達し、エッジコンピューティングデバイスNvidia上でリアルタイム要求(FPS>=30)を満たす。
論文 参考訳(メタデータ) (2023-02-15T06:05:14Z) - Bilaterally Slimmable Transformer for Elastic and Efficient Visual
Question Answering [75.86788916930377]
左右にスリム化可能なトランスフォーマー(BST)は任意のトランスフォーマーベースのVQAモデルに統合される。
1つのスリム化MCAN-BSTサブモデルは、VQA-v2で同等の精度を達成する。
最も小さなMCAN-BSTサブモデルは、推論中に9Mパラメータと0.16GのFLOPを持つ。
論文 参考訳(メタデータ) (2022-03-24T02:26:04Z) - Particle Transformer for Jet Tagging [4.604003661048267]
ジェットタグのための新しい包括的データセットであるJetClassを提示する。
データセットは100Mジェットで構成され、既存の公開データセットよりも約2桁大きい。
我々は、ParT(Particle Transformer)と呼ばれるジェットタグのためのトランスフォーマーベースの新しいアーキテクチャを提案する。
論文 参考訳(メタデータ) (2022-02-08T10:36:29Z) - TransMOT: Spatial-Temporal Graph Transformer for Multiple Object
Tracking [74.82415271960315]
映像内の物体間の空間的・時間的相互作用を効率的にモデル化するソリューションであるTransMOTを提案する。
TransMOTは従来のTransformerよりも計算効率が高いだけでなく、トラッキング精度も向上している。
提案手法は、MOT15、MOT16、MOT17、MOT20を含む複数のベンチマークデータセット上で評価される。
論文 参考訳(メタデータ) (2021-04-01T01:49:05Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。