論文の概要: A universal vision transformer for fast calorimeter simulations
- arxiv url: http://arxiv.org/abs/2601.05289v1
- Date: Wed, 07 Jan 2026 19:00:04 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-12 17:41:49.730282
- Title: A universal vision transformer for fast calorimeter simulations
- Title(参考訳): 高速カロリーメータシミュレーションのためのユニバーサルビジョントランス
- Authors: Luigi Favaro, Andrea Giammanco, Claudius Krause,
- Abstract要約: 視覚変換器(ViT)はGeant4応答を未整合精度でエミュレートすることができる。
複数の評価指標において,VTはGeant4と統計的に区別できない電磁シャワーとハドロンシャワーを発生させることを示した。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The high-dimensional complex nature of detectors makes fast calorimeter simulations a prime application for modern generative machine learning. Vision transformers (ViTs) can emulate the Geant4 response with unmatched accuracy and are not limited to regular geometries. Starting from the CaloDREAM architecture, we demonstrate the robustness and scalability of ViTs on regular and irregular geometries, and multiple detectors. Our results show that ViTs generate electromagnetic and hadronic showers statistically indistinguishable from Geant4 in multiple evaluation metrics, while maintaining the generation time in the $\mathcal{O}(10-100)$ ms on a single GPU. Furthermore, we show that pretraining on a large dataset and fine-tuning on the target geometry leads to reduced training costs and higher data efficiency, or altogether improves the fidelity of generated showers.
- Abstract(参考訳): 検出器の高次元複雑な性質は、高速カロリーメータシミュレーションを現代の生成機械学習の主用途にしている。
視覚変換器(ViT)は、未整合の精度でGeant4応答をエミュレートすることができ、通常の測地に限らない。
CaloDREAMアーキテクチャから、正規および不規則なジオメトリおよび複数の検出器上でのViTの堅牢性とスケーラビリティを実証する。
以上の結果から,VTはGeant4と統計的に区別不能な電気・ハドロンシャワーを複数の評価指標で生成し,その生成時間を1つのGPU上で$\mathcal{O}(10-100)$ msで維持した。
さらに, 大規模データセットの事前トレーニングと目標形状の微調整により, トレーニングコストの低減とデータ効率の向上, あるいは, 生成したシャワーの忠実度を大幅に向上させることを示す。
関連論文リスト
- Your ViT is Secretly an Image Segmentation Model [50.71238842539735]
Vision Transformer (ViT) は、様々なコンピュータビジョンタスクにおいて、顕著なパフォーマンスとスケーラビリティを示している。
タスク固有のコンポーネントによって導入された帰納バイアスは、代わりにViT自身で学習できることを示す。
画像セグメンテーションを行うためにプレーンな ViT アーキテクチャを再利用した Mask Transformer (EoMT) を導入する。
論文 参考訳(メタデータ) (2025-03-24T19:56:02Z) - Generalizing to new geometries with Geometry-Aware Autoregressive Models
(GAAMs) for fast calorimeter simulation [6.099458999905677]
生成モデルはより高速なサンプル生産を提供することができるが、現在は特定の検出器測地の性能を最適化するためにかなりの努力が必要である。
我々は,温度計の応答が幾何によってどのように変化するかを学習する自動回帰モデルを開発した。
幾何認識モデルは、いくつかの指標で50ドル以上もするベースライン無意識モデルより優れている。
論文 参考訳(メタデータ) (2023-05-19T08:54:49Z) - Vision Transformers are Robust Learners [65.91359312429147]
ビジョントランスフォーマー(ViT)の一般的な腐敗や摂動、分布シフト、自然逆転例に対する堅牢性について検討します。
ViTsが実際により堅牢な学習者である理由を説明するために、定量的および定性的な指標を提供する分析を提示します。
論文 参考訳(メタデータ) (2021-05-17T02:39:22Z) - TransMOT: Spatial-Temporal Graph Transformer for Multiple Object
Tracking [74.82415271960315]
映像内の物体間の空間的・時間的相互作用を効率的にモデル化するソリューションであるTransMOTを提案する。
TransMOTは従来のTransformerよりも計算効率が高いだけでなく、トラッキング精度も向上している。
提案手法は、MOT15、MOT16、MOT17、MOT20を含む複数のベンチマークデータセット上で評価される。
論文 参考訳(メタデータ) (2021-04-01T01:49:05Z) - Machine learning for rapid discovery of laminar flow channel wall
modifications that enhance heat transfer [56.34005280792013]
任意の, 平坦な, 非平坦なチャネルの正確な数値シミュレーションと, ドラッグ係数とスタントン数を予測する機械学習モデルを組み合わせる。
畳み込みニューラルネットワーク(CNN)は,数値シミュレーションのわずかな時間で,目標特性を正確に予測できることを示す。
論文 参考訳(メタデータ) (2021-01-19T16:14:02Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。