論文の概要: Particle Transformer for Jet Tagging
- arxiv url: http://arxiv.org/abs/2202.03772v1
- Date: Tue, 8 Feb 2022 10:36:29 GMT
- ステータス: 処理完了
- システム内更新日: 2022-02-09 23:34:20.588886
- Title: Particle Transformer for Jet Tagging
- Title(参考訳): ジェットタグ用粒子変圧器
- Authors: Huilin Qu, Congqiao Li, Sitian Qian
- Abstract要約: ジェットタグのための新しい包括的データセットであるJetClassを提示する。
データセットは100Mジェットで構成され、既存の公開データセットよりも約2桁大きい。
我々は、ParT(Particle Transformer)と呼ばれるジェットタグのためのトランスフォーマーベースの新しいアーキテクチャを提案する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Jet tagging is a critical yet challenging classification task in particle
physics. While deep learning has transformed jet tagging and significantly
improved performance, the lack of a large-scale public dataset impedes further
enhancement. In this work, we present JetClass, a new comprehensive dataset for
jet tagging. The JetClass dataset consists of 100 M jets, about two orders of
magnitude larger than existing public datasets. A total of 10 types of jets are
simulated, including several types unexplored for tagging so far. Based on the
large dataset, we propose a new Transformer-based architecture for jet tagging,
called Particle Transformer (ParT). By incorporating pairwise particle
interactions in the attention mechanism, ParT achieves higher tagging
performance than a plain Transformer and surpasses the previous
state-of-the-art, ParticleNet, by a large margin. The pre-trained ParT models,
once fine-tuned, also substantially enhance the performance on two widely
adopted jet tagging benchmarks.
- Abstract(参考訳): ジェットタグは、粒子物理学において決定的だが難しい分類課題である。
ディープラーニングはジェットタグを変換し、パフォーマンスを大幅に向上させたが、大規模なパブリックデータセットの欠如はさらなる強化を妨げる。
本稿ではジェットタグのための新しい包括的データセットであるJetClassを紹介する。
JetClassデータセットは100Mジェットで構成され、既存の公開データセットよりも約2桁大きい。
合計10種類のジェットがシミュレートされ、これまでにタグ付けのためにいくつかのタイプが検討されていない。
大規模データセットに基づいて,ParT (Particle Transformer) と呼ばれるジェットタグのための新しいトランスフォーマーアーキテクチャを提案する。
注意機構にペアワイズ粒子相互作用を組み込むことで、ParTは通常のトランスフォーマーよりも高いタグ付け性能を実現し、従来の技術であるParticleNetを大きなマージンで上回る。
一度微調整されたParTモデルは、広く採用されている2つのジェットタグ付けベンチマークの性能を大幅に向上させた。
関連論文リスト
- A multicategory jet image classification framework using deep neural network [0.9350546589421261]
著者らは、粒子とジェットの特徴抽出によるジェットカテゴリー分離性に注目し、その結果、ジェット分類のための計算効率の良い解釈可能なモデルを生み出した。
この研究は、分離可能な潜在空間で表される高次元データセットがジェット分類のためのより単純なアーキテクチャをもたらすことを示した。
論文 参考訳(メタデータ) (2024-07-03T22:00:35Z) - Particle Multi-Axis Transformer for Jet Tagging [0.774199694856838]
本稿では,新しいアーキテクチャであるParticle Multi-Axis transformer (ParMAT)を提案する。
ParMATは単一ユニット内の局所的およびグローバルな空間的相互作用を含み、様々な入力長を扱う能力を向上させる。
JETCLASSは10種類の粒子からなる1億基のジェットを含む,公開可能な大規模データセットである。
論文 参考訳(メタデータ) (2024-06-09T10:34:16Z) - OmniJet-$α$: The first cross-task foundation model for particle physics [0.0]
ファンデーションモデルはマルチデータセットとマルチタスクの機械学習手法で、一度トレーニングされたら、様々なダウンストリームアプリケーションのために微調整できる。
我々は,この課題について,いくつかの点で大きな進展を報告している。
我々は、教師なし問題(ジェット世代)と教師なしタスク(ジェットタグ付け)の移行学習を、新しいOmniJet-$alpha$モデルで実証する。
論文 参考訳(メタデータ) (2024-03-08T19:00:01Z) - Flow Matching Beyond Kinematics: Generating Jets with Particle-ID and
Trajectory Displacement Information [0.0]
我々はJetClassデータセットでトレーニングされた最初の生成モデルを紹介する。
本モデルでは, 構成レベルでジェットを発生させ, 流れマッチング法でトレーニングした変分同変連続正規化流(CNF)である。
また,ジェット部品の運動特性を超越した生成モデルも導入した。
論文 参考訳(メタデータ) (2023-11-30T19:00:02Z) - JetSeg: Efficient Real-Time Semantic Segmentation Model for Low-Power
GPU-Embedded Systems [0.0]
本稿では,JetSegと呼ばれるリアルタイムセマンティックセグメンテーションのための効率的なモデルを提案する。
JetSegはJetNetと呼ばれるエンコーダと改良されたRegSegデコーダで構成されている。
提案手法は,46.70Mパラメータと5.14%のGFLOPを削減し,最先端のリアルタイムエンコーダデコーダモデルより優れている。
論文 参考訳(メタデータ) (2023-05-19T04:07:26Z) - Joint Spatial-Temporal and Appearance Modeling with Transformer for
Multiple Object Tracking [59.79252390626194]
本稿ではTransSTAMという新しい手法を提案する。Transformerを利用して各オブジェクトの外観特徴とオブジェクト間の空間的時間的関係の両方をモデル化する。
提案手法はMOT16, MOT17, MOT20を含む複数の公開ベンチマークで評価され, IDF1とHOTAの両方で明確な性能向上を実現している。
論文 参考訳(メタデータ) (2022-05-31T01:19:18Z) - Autoencoders for unsupervised anomaly detection in high energy physics [105.54048699217668]
QCDジェット画像の背景にあるトップジェット画像のタグ付けについて検討する。
標準オートエンコーダ設定をモデル非依存の異常タガーとはみなせないことを示す。
モデル非依存異常検出の課題に対する性能改善策を提案する。
論文 参考訳(メタデータ) (2021-04-19T05:06:57Z) - UniDrop: A Simple yet Effective Technique to Improve Transformer without
Extra Cost [110.67392881417777]
トランスフォーマーアーキテクチャは、豊富な自然言語処理タスクで大きな成功を収めます。
ドロップアウトなどのシンプルな手法で、慎重な設計でモデル性能を大幅に向上させることができます。
具体的には,3種類のドロップアウト手法を統一するUniDropという手法を提案する。
論文 参考訳(メタデータ) (2021-04-11T07:43:19Z) - TransMOT: Spatial-Temporal Graph Transformer for Multiple Object
Tracking [74.82415271960315]
映像内の物体間の空間的・時間的相互作用を効率的にモデル化するソリューションであるTransMOTを提案する。
TransMOTは従来のTransformerよりも計算効率が高いだけでなく、トラッキング精度も向上している。
提案手法は、MOT15、MOT16、MOT17、MOT20を含む複数のベンチマークデータセット上で評価される。
論文 参考訳(メタデータ) (2021-04-01T01:49:05Z) - ACRONYM: A Large-Scale Grasp Dataset Based on Simulation [64.37675024289857]
ACRONYMは物理シミュレーションに基づくロボットグリップ計画のためのデータセットである。
データセットには17.7Mのパラレルジャウグリップが含まれ、262の異なるカテゴリから8872のオブジェクトにまたがっている。
我々は、この大規模で多様なデータセットの価値を、2つの最先端の学習に基づく把握計画アルゴリズムの訓練に利用することで示す。
論文 参考訳(メタデータ) (2020-11-18T23:24:00Z) - The Cascade Transformer: an Application for Efficient Answer Sentence
Selection [116.09532365093659]
本稿では,変圧器をベースとしたモデルのカスケード化手法であるカスケード変換器について紹介する。
現状の変圧器モデルと比較すると,提案手法は精度にほとんど影響を与えずに計算量を37%削減する。
論文 参考訳(メタデータ) (2020-05-05T23:32:01Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。