論文の概要: The LHCb ultra-fast simulation option, Lamarr: design and validation
- arxiv url: http://arxiv.org/abs/2309.13213v1
- Date: Fri, 22 Sep 2023 23:21:27 GMT
- ステータス: 処理完了
- システム内更新日: 2023-09-26 21:34:26.023515
- Title: The LHCb ultra-fast simulation option, Lamarr: design and validation
- Title(参考訳): LHCb超高速シミュレーションオプションLamarr:設計と検証
- Authors: Lucio Anderlini, Matteo Barbetti, Simone Capelli, Gloria Corti, Adam
Davis, Denis Derkach, Nikita Kazeev, Artem Maevskiy, Maurizio Martinelli,
Sergei Mokonenko, Benedetto Gianluca Siddi, Zehua Xu (for the LHCb Simulation
Project)
- Abstract要約: 詳細な検出器シミュレーションは、LHCbのCPUリソースの主要な消費者である。
Lamarrは、LHCb検出器のシミュレーションで最速のソリューションを提供するために設計されたガウディベースのフレームワークである。
- 参考スコア(独自算出の注目度): 0.46369270610100627
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Detailed detector simulation is the major consumer of CPU resources at LHCb,
having used more than 90% of the total computing budget during Run 2 of the
Large Hadron Collider at CERN. As data is collected by the upgraded LHCb
detector during Run 3 of the LHC, larger requests for simulated data samples
are necessary, and will far exceed the pledged resources of the experiment,
even with existing fast simulation options. An evolution of technologies and
techniques to produce simulated samples is mandatory to meet the upcoming needs
of analysis to interpret signal versus background and measure efficiencies. In
this context, we propose Lamarr, a Gaudi-based framework designed to offer the
fastest solution for the simulation of the LHCb detector. Lamarr consists of a
pipeline of modules parameterizing both the detector response and the
reconstruction algorithms of the LHCb experiment. Most of the parameterizations
are made of Deep Generative Models and Gradient Boosted Decision Trees trained
on simulated samples or alternatively, where possible, on real data. Embedding
Lamarr in the general LHCb Gauss Simulation framework allows combining its
execution with any of the available generators in a seamless way. Lamarr has
been validated by comparing key reconstructed quantities with Detailed
Simulation. Good agreement of the simulated distributions is obtained with
two-order-of-magnitude speed-up of the simulation phase.
- Abstract(参考訳): 詳細な検出器シミュレーションはLHCbのCPUリソースの主要な消費者であり、CERNの大型ハドロン衝突型加速器のラン2で計算予算の90%以上を使っていた。
LHCのラン3で改良されたLHCb検出器によってデータが収集されるため、シミュレーションデータサンプルに対するより大きな要求が必要であり、既存の高速シミュレーションオプションでさえ、実験の約束されたリソースをはるかに超えることになる。
シミュレーションサンプルを生成する技術や技術の進化は、信号と背景を解釈し、効率を測定するための今後の分析のニーズを満たすために必須である。
そこで我々は,lhcb検出器のシミュレーションに最適な解法を提供するために設計されたガウディベースのフレームワーク lamarr を提案する。
ラマーは検出器応答とLHCb実験の再構成アルゴリズムの両方をパラメータ化したモジュールのパイプラインで構成されている。
パラメータ化のほとんどは、シミュレーションサンプルでトレーニングされたDeep Generative ModelsとGradient Boosted Decision Treesで構成されている。
一般的なLHCb Gauss SimulationフレームワークにLamarrを埋め込むことで、実行と利用可能なジェネレータをシームレスに組み合わせることができる。
Lamarrは、重要な再構成量と詳細なシミュレーションを比較することで検証されている。
シミュレーション位相の2次速度アップによりシミュレーション分布の良好な一致を求める。
関連論文リスト
- NAVSIM: Data-Driven Non-Reactive Autonomous Vehicle Simulation and Benchmarking [65.24988062003096]
我々は,視覚に基づく運転ポリシーをベンチマークするフレームワークであるNAVSIMを提案する。
我々のシミュレーションは非反応性であり、評価された政策と環境は互いに影響を与えない。
NAVSIMはCVPR 2024で開催され、143チームが433のエントリーを提出し、いくつかの新たな洞察を得た。
論文 参考訳(メタデータ) (2024-06-21T17:59:02Z) - Waymax: An Accelerated, Data-Driven Simulator for Large-Scale Autonomous
Driving Research [76.93956925360638]
Waymaxは、マルチエージェントシーンにおける自動運転のための新しいデータ駆動シミュレータである。
TPU/GPUなどのハードウェアアクセラレータで完全に動作し、トレーニング用のグラフ内シミュレーションをサポートする。
我々は、一般的な模倣と強化学習アルゴリズムのスイートをベンチマークし、異なる設計決定に関するアブレーション研究を行った。
論文 参考訳(メタデータ) (2023-10-12T20:49:15Z) - Reduced Simulations for High-Energy Physics, a Middle Ground for
Data-Driven Physics Research [0.0]
サブ原子粒子軌道再構成は高エネルギー物理実験において重要な課題である。
我々は,複雑性低減型検出器モデルとしてREDVID(REDuced VIrtual Detector)と粒子衝突イベントシミュレータコンボを提供する。
論文 参考訳(メタデータ) (2023-08-30T12:50:45Z) - In Situ Framework for Coupling Simulation and Machine Learning with
Application to CFD [51.04126395480625]
近年、流体力学計算を容易にする機械学習(ML)の多くの成功例が報告されている。
シミュレーションが大きくなるにつれて、従来のオフライン学習のための新しいトレーニングデータセットの生成は、I/Oとストレージのボトルネックを生み出します。
この作業は、この結合を単純化し、異種クラスタでのその場トレーニングと推論を可能にするソリューションを提供する。
論文 参考訳(メタデータ) (2023-06-22T14:07:54Z) - Lamarr: LHCb ultra-fast simulation based on machine learning models deployed within Gauss [0.0]
LHCb実験における検出器応答と再構成アルゴリズムの両方をパラメータ化するシミュレーション生成を高速化するフレームワークであるLamarrについて論じる。
複数のアルゴリズムと戦略を駆使した深部生成モデルを用いて、LHCb検出器の単一成分の高レベル応答を効果的にパラメータ化する。
論文 参考訳(メタデータ) (2023-03-20T20:18:04Z) - Importance sampling for stochastic quantum simulations [68.8204255655161]
我々は、係数に応じてハミルトン式からサンプリングしてランダムな積公式を構築するqDriftプロトコルを導入する。
サンプリング段階における個別のシミュレーションコストを考慮し、同じ精度でシミュレーションコストを削減可能であることを示す。
格子核効果場理論を用いて数値シミュレーションを行った結果, 実験結果が得られた。
論文 参考訳(メタデータ) (2022-12-12T15:06:32Z) - Continual learning autoencoder training for a particle-in-cell
simulation via streaming [52.77024349608834]
今後のエクサスケール時代は 次世代の物理シミュレーションを 高解像度で提供します
これらのシミュレーションは高解像度であり、ディスク上に大量のシミュレーションデータを格納することはほぼ不可能であるため、機械学習モデルのトレーニングに影響を与える。
この研究は、ディスク上のデータなしで、実行中のシミュレーションにニューラルネットワークを同時にトレーニングするアプローチを示す。
論文 参考訳(メタデータ) (2022-11-09T09:55:14Z) - Towards Reliable Neural Generative Modeling of Detectors [0.45671221781968335]
本稿では,LHCb実験イベントのシミュレーションにおけるGAN(Generative Adversarial Network)の適用について論じる。
結果は、LHCbチェレンコフ検出器のGeant4シミュレーションに基づいている。
論文 参考訳(メタデータ) (2022-04-21T08:14:24Z) - BayesSimIG: Scalable Parameter Inference for Adaptive Domain
Randomization with IsaacGym [59.53949960353792]
BayesSimIGは、最近リリースされたNVIDIA IsaacGymと統合されたBayesSimの実装を提供するライブラリである。
BayesSimIGはNVIDIABoardと統合して、高次元の後方のスライスを簡単に視覚化する。
論文 参考訳(メタデータ) (2021-07-09T16:21:31Z) - Data Augmentation at the LHC through Analysis-specific Fast Simulation
with Deep Learning [4.666011151359189]
本稿では,大規模解析用データセットを作成するために設計されたディープニューラルネットワークに基づく高速シミュレーションアプリケーションを提案する。
本稿では,大量のジェネレータレベルのイベントから始まる高速シミュレーションワークフローを提案する。
論文 参考訳(メタデータ) (2020-10-05T07:48:45Z) - Generative Adversarial Networks for LHCb Fast Simulation [0.7106986689736827]
LHCb生成モデルは、チェレンコフ検出器の温度計および高レベル応答におけるシャワーの発生を加速するために研究されている。
提案手法は,高速化とともに高忠実度な結果をもたらすことを実証し,これらの結果がもたらす影響について考察する。
論文 参考訳(メタデータ) (2020-03-21T22:46:15Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。