論文の概要: Comparison of Image Processing Models in Quark Gluon Jet Classification
- arxiv url: http://arxiv.org/abs/2602.00141v1
- Date: Thu, 29 Jan 2026 01:27:50 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-03 19:28:32.972275
- Title: Comparison of Image Processing Models in Quark Gluon Jet Classification
- Title(参考訳): クォークグルーオンジェット分類における画像処理モデルの比較
- Authors: Daeun Kim, Jiwon Lee, Wonjun Jeong, Hyeongwoo Noh, Giyeong Kim, Jaeyoon Cho, Geonhee Kwak, Seunghwan Yang, MinJung Kweon,
- Abstract要約: 我々は、教師付きおよび自己教師型学習環境下で、畳み込みニューラルネットワーク(CNN)、ビジョントランスフォーマー(ViT)、スウィントランスフォーマー(Swin-Tiny)の性能を評価する。
この結果から,Swin-Tinyモデルの最後の2つの変圧器ブロックのみを微調整することで,効率と精度の最良のトレードオフが得られることがわかった。
- 参考スコア(独自算出の注目度): 5.85156788357937
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We present a comprehensive comparison of convolutional and transformer-based models for distinguishing quark and gluon jets using simulated jet images from Pythia 8. By encoding jet substructure into a three-channel representation of particle kinematics, we evaluate the performance of convolutional neural networks (CNNs), Vision Transformers (ViTs), and Swin Transformers (Swin-Tiny) under both supervised and self-supervised learning setups. Our results show that fine-tuning only the final two transformer blocks of the Swin-Tiny model achieves the best trade-off between efficiency and accuracy, reaching 81.4% accuracy and an AUC (area under the ROC curve) of 88.9%. Self-supervised pretraining with Momentum Contrast (MoCo) further enhances feature robustness and reduces the number of trainable parameters. These findings highlight the potential of hierarchical attention-based models for jet substructure studies and for domain transfer to real collision data.
- Abstract(参考訳): Pythia 8のシミュレーションジェット画像を用いたクォークジェットとグルーオンジェットを区別するための畳み込みモデルと変圧器ベースモデルの比較を行った。
粒子キネマティクスの3チャネル表現にジェット部分構造を符号化することにより,教師付きおよび自己教師型学習環境下での畳み込みニューラルネットワーク(CNN),ビジョントランスフォーマー(ViT),スウィントランスフォーマー(Swin-Tiny)の性能を評価する。
その結果,Swin-Tinyモデルの最後の2つの変圧器ブロックのみを微調整することで,効率と精度の最良のトレードオフが達成され,81.4%の精度と88.9%のAUCが得られた。
Momentum Contrast (MoCo) による自己教師付き事前トレーニングは、機能の堅牢性を高め、トレーニング可能なパラメータの数を減らす。
これらの結果は、ジェットサブストラクチャー研究や実際の衝突データへのドメイン転送のための階層的注意に基づくモデルの可能性を強調している。
関連論文リスト
- Pose Matters: Evaluating Vision Transformers and CNNs for Human Action Recognition on Small COCO Subsets [0.0]
本研究では,COCO画像コーパスの3クラスサブセットを用いた人間の認識について検討する。
バイナリビジョン変換器(ViT)は90%の平均テスト精度を達成した。
論文 参考訳(メタデータ) (2025-06-13T11:16:50Z) - Attention based Dual-Branch Complex Feature Fusion Network for
Hyperspectral Image Classification [1.3249509346606658]
提案モデルはパヴィア大学とサリナスのデータセットで評価される。
その結果,提案手法は,全体の精度,平均精度,Kappaにおいて,最先端の手法よりも優れていた。
論文 参考訳(メタデータ) (2023-11-02T22:31:24Z) - Transformers For Recognition In Overhead Imagery: A Reality Check [0.0]
オーバヘッド画像のための最先端セグメンテーションモデルにトランスフォーマー構造を加えることの影響を比較した。
我々の結果は、トランスフォーマーは一貫性があるが、控えめな、パフォーマンスの向上をもたらすことを示唆している。
論文 参考訳(メタデータ) (2022-10-23T02:17:31Z) - From Environmental Sound Representation to Robustness of 2D CNN Models
Against Adversarial Attacks [82.21746840893658]
本稿では, 各種環境音響表現(スペクトログラム)が, 被害者残差畳み込みニューラルネットワークの認識性能と対角攻撃性に与える影響について検討する。
DWTスペクトログラムでトレーニングしたResNet-18モデルでは高い認識精度が得られたが、このモデルに対する攻撃は敵にとって比較的コストがかかる。
論文 参考訳(メタデータ) (2022-04-14T15:14:08Z) - Efficient Vision Transformers via Fine-Grained Manifold Distillation [96.50513363752836]
視覚変換器のアーキテクチャは多くのコンピュータビジョンタスクで異常な性能を示した。
ネットワーク性能は向上するが、トランスフォーマーはより多くの計算資源を必要とすることが多い。
本稿では,教師のトランスフォーマーから,画像と分割パッチの関係を通して有用な情報を抽出することを提案する。
論文 参考訳(メタデータ) (2021-07-03T08:28:34Z) - Vision Transformers are Robust Learners [65.91359312429147]
ビジョントランスフォーマー(ViT)の一般的な腐敗や摂動、分布シフト、自然逆転例に対する堅牢性について検討します。
ViTsが実際により堅牢な学習者である理由を説明するために、定量的および定性的な指標を提供する分析を提示します。
論文 参考訳(メタデータ) (2021-05-17T02:39:22Z) - From Sound Representation to Model Robustness [82.21746840893658]
本研究では, 環境音の標準的な表現(スペクトログラム)が, 被害者の残差畳み込みニューラルネットワークの認識性能と対角攻撃性に与える影響について検討する。
3つの環境音響データセットの様々な実験から、ResNet-18モデルは、他のディープラーニングアーキテクチャよりも優れていることがわかった。
論文 参考訳(メタデータ) (2020-07-27T17:30:49Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。