論文の概要、ライセンス

# (参考訳) 高エネルギー物理のための機械学習校正のバイアスと先行 [全文訳有]

Bias and Priors in Machine Learning Calibrations for High Energy Physics ( http://arxiv.org/abs/2205.05084v1 )

ライセンス: CC BY 4.0
Rikab Gambhir, Benjamin Nachman, and Jesse Thaler(参考訳) 機械学習は、高エネルギー物理検出器でほぼすべての再構成された物体の校正を改善するエキサイティングな機会を提供する。 しかしながら、機械学習のアプローチは、トレーニング中に使用される例のスペクトルに依存することが多い。 これはキャリブレーションの望ましくない性質であり、様々な環境に適用する必要がある。 本研究の目的は,機械学習による校正戦略の事前依存性を明確にすることである。 シミュレーションベースとデータベースキャリブレーションの両方に対する最近の提案は、トレーニングに使用されるサンプルの特性を継承し、下流分析のバイアスをもたらす可能性があることを実証する。 シミュレーションベースキャリブレーションの場合、最近提案されているガウス型アンサッツ法では、事前依存の落とし穴を回避できるが、事前非依存のデータベースキャリブレーションは未解決の問題である。

Machine learning offers an exciting opportunity to improve the calibration of nearly all reconstructed objects in high-energy physics detectors. However, machine learning approaches often depend on the spectra of examples used during training, an issue known as prior dependence. This is an undesirable property of a calibration, which needs to be applicable in a variety of environments. The purpose of this paper is to explicitly highlight the prior dependence of some machine learning-based calibration strategies. We demonstrate how some recent proposals for both simulation-based and data-based calibrations inherit properties of the sample used for training, which can result in biases for downstream analyses. In the case of simulation-based calibration, we argue that our recently proposed Gaussian Ansatz approach can avoid some of the pitfalls of prior dependence, whereas prior-independent data-based calibration remains an open problem.
公開日: Tue, 10 May 2022 18:00:00 GMT

※ 翻訳結果を表に示しています。PDFがオリジナルの論文です。翻訳結果のライセンスはCC BY-SA 4.0です。詳細はトップページをご参照ください。

翻訳結果

    Page: /      
英語(論文から抽出)日本語訳スコア
2 2 0 2 y a M 0 1 2 2 0 2 y a m 0 1 である。 0.53
] h pp e h [ ] h pp e h [ 0.43
1 v 4 8 0 5 0 1 v 4 8 0 5 0 0.42
. 5 0 2 2 : v i X r a . 5 0 2 2 : v i X r a 0.42
Bias and Priors in Machine Learning Calibrations for High Energy Physics 高エネルギー物理のための機械学習校正のバイアスと先行 0.84
Rikab Gambhir,1, 2, ∗ Benjamin Nachman,3, 4, † and Jesse Thaler1, 2, ‡ Rikab Gambhir,1, 2, ∗ Benjamin Nachman,3, 4, , and Jesse Thaler1, 2, . 0.44
MIT-CTP 5432 MIT-CTP 5432 0.35
1Center for Theoretical Physics, Massachusetts Institute of Technology, Cambridge, MA 02139, USA マサチューセッツ工科大学理論物理学センター, ケンブリッジ, ma 02139, usa 0.57
2The NSF AI Institute for Artificial Intelligence and Fundamental Interactions 第2回 NSF AI Institute for Artificial Intelligence and Basic Interactions 0.47
3Physics Division, Lawrence Berkeley National Laboratory, Berkeley, CA 94720, USA カリフォルニア大学バークレー校ローレンス・バークレー国立研究所 3Physics Division, CA 94720, USA 0.76
4Berkeley Institute for Data Science, University of California, Berkeley, CA 94720, USA Machine learning offers an exciting opportunity to improve the calibration of nearly all reconstructed objects in high-energy physics detectors. カリフォルニア大学バークレー校の4Berkeley Institute for Data Science, University of California, Berkeley, CA 94720, USA Machine Learningは、高エネルギー物理検出器のほとんどすべての再構成されたオブジェクトの校正を改善するエキサイティングな機会を提供する。
訳抜け防止モード: 4Berkeley Institute for Data Science, University of California, Berkeley, CA 94720 USA Machine Learningはエキサイティングな機会を提供する 高エネルギー物理検出器におけるほとんどすべての再構成された物体の校正を改善する。
0.81
However, machine learning approaches often depend on the spectra of examples used during training, an issue known as prior dependence. しかしながら、機械学習のアプローチは、トレーニング中に使用される例のスペクトルに依存することが多い。 0.71
This is an undesirable property of a calibration, which needs to be applicable in a variety of environments. これはキャリブレーションの望ましくない性質であり、様々な環境に適用する必要がある。 0.60
The purpose of this paper is to explicitly highlight the prior dependence of some machine learning-based calibration strategies. 本研究の目的は,機械学習による校正戦略の事前依存性を明確にすることである。 0.75
We demonstrate how some recent proposals for both simulation-based and data-based calibrations inherit properties of the sample used for training, which can result in biases for downstream analyses. シミュレーションベースとデータベースキャリブレーションの両方に対する最近の提案は、トレーニングに使用されるサンプルの特性を継承し、下流分析のバイアスをもたらす可能性があることを実証する。 0.74
In the case of simulation-based calibration, we argue that our recently proposed Gaussian Ansatz approach can avoid some of the pitfalls of prior dependence, whereas prior-independent data-based calibration remains an open problem. シミュレーションベースキャリブレーションの場合、最近提案されているガウス型アンサッツ法では、事前依存の落とし穴を回避できるが、事前非依存のデータベースキャリブレーションは未解決の問題である。 0.66
CONTENTS I. INTRODUCTION 内容 私は... 導入 0.35
I. Introduction II. The Statistics of Calibration i. 紹介 II。 校正の統計 0.68
A. Simulation-based Calibration B. Prior Dependence and Bias C. Mitigating Prior Dependence D. Data-based Calibration E. Unbiased Data-based Approaches? a. シミュレーションに基づく校正 b. 事前依存とバイアス c. 事前依存の緩和 d. データベース校正 e. unbiased data-based approach? 0.72
III. Resolution and Uncertainty in Calibrations III。 校正の解決と不確かさ 0.76
A. Resolution B. Uncertainty a.解決b.不確実性 0.61
IV. Gaussian Examples A. Simulation-based Calibration B. Data-based Calibration IV。 ガウスの例 A. シミュレーションに基づく校正B. データに基づく校正 0.52
V. Calibrating Jet Energy Response V. ジェットエネルギー応答の校正 0.77
A. Datasets B. Simulation-based Calibration C. Data-based Calibration a. データセット b. シミュレーションベースキャリブレーション c. データベースキャリブレーション 0.60
VI. Conclusions Code and Data VI。 結論 コードとデータ 0.74
Acknowledgments References ∗ rikab@mit.edu † bpnachman@lbl.gov ‡ jthaler@mit.edu 承認 参考文献 ∗ rikab@mit.edu 〜 bpnachman@lbl.gov 〜 jthaler@mit.edu 0.63
1 2 2 2 3 4 5 1 2 2 2 3 4 5 0.43
5 5 6 6 6 7 5 5 6 6 6 7 0.42
10 10 11 11 10 10 11 11 0.42
13 13 13 13 13 13 13 13 0.85
Calibration is the task of removing bias from an inference – that is, to ensure the inference is “correct on average”. 校正は、推論からバイアスを取り除くタスクです。つまり、推論が“平均的に正しい”ことを保証します。 0.60
The are two major classes of calibration: simulation-based calibration, where the goal is to infer a truth reference object, and data-based calibration, where the goal is to match simulation and data distributions. キャリブレーションの主な2つのクラスは、真理参照オブジェクトを推論するシミュレーションベースのキャリブレーションと、シミュレーションとデータ分布をマッチングするデータベースのキャリブレーションである。
訳抜け防止モード: キャリブレーションの2つの主要なクラス:シミュレーション-ベースキャリブレーション、 真理参照対象を推測することです データ - ベースのキャリブレーション - どこで 目標は シミュレーションとデータ分布を 一致させることです
0.79
Both simulation-based calibrations and data-based calibrations are essential components of the experimental program in high-energy physics (HEP), and a significant amount of time is spent deriving these results to enable downstream analyses. シミュレーションに基づくキャリブレーションとデータに基づくキャリブレーションは、高エネルギー物理学(HEP)の実験プログラムにおいて不可欠な要素であり、これらの結果から下流解析を可能にするためにかなりの時間を費やしている。 0.70
We focus on the ATLAS and CMS experiments at the Large Hadron Collider (LHC) for our examples, but this discussion is relevant for all of HEP (and really any experiment). 実例では、LHC(Large Hadron Collider)におけるATLASとCMSの実験に注目していますが、この議論はHEPのすべて(そして本当にどんな実験でも)に関係しています。 0.69
ATLAS and CMS have performed many recent calibrations, including the energy calibration of single hadrons [1, 2], jets [3, 4], muons [5, 6], electrons/photons [7–9], and τ leptons [10, 11]. アトラスとcmsは、1つのハドロン[1, 2]、ジェット[3, 4]、ミューオン[5, 6]、電子/光子[7–9]、τレプトン[10, 11]のエネルギー校正を含む最近の多くの校正を行った。
訳抜け防止モード: ATLASとCMSは、単一ハドロン[1]のエネルギーキャリブレーションを含む、近年多くのキャリブレーションを行っている。 2 ], jets [ 3, 4 ], muons [ 5, 6 ], 電子/光子 [7-9 ] と τ レプトン [10, 11 ] である。
0.79
The reconstruction efficiencies of all of these objects are also calibrated and include the classification efficiency of jets from heavy flavor [12, 13] and even more massive particles [14, 15]. これらのオブジェクトの再構成効率も調整され、重い香料[12,13]およびさらに大きな粒子[14,15]からのジェットの分類効率を含む。 0.73
Machine learning is a promising tool to improve both types of calibration. 機械学習は両方のキャリブレーションを改善するための有望なツールだ。 0.76
In particular, machine learning methods can readily process high-dimensional inputs and therefore can incorporate more information to improve the precision and accuracy of a calibration. 特に、機械学習手法は容易に高次元入力を処理でき、より多くの情報を組み込んで校正の精度と精度を向上させることができる。
訳抜け防止モード: 特に機械学習は高次元入力を容易に処理できる より多くの情報を組み込むことができ キャリブレーションの精度と精度を向上させるためです
0.86
There have been a large number of proposals for improving the simulationbased calibrations of various object energies, including single hadrons [16–21], muons [22], and jets [23–33] at colliders; kinematic reconstruction in deep inelastic scattering [34]; and neutrino energies in a variety of experiments [35–40]. 衝突子における単一ハドロン[16–21]、ミューオン[22]、ジェット[23–33]、深い非弾性散乱[34]における運動的再構成、様々な実験[35–40]におけるニュートリノエネルギーなど、様々な物体エネルギーのシミュレーションに基づく校正を改善するための多くの提案がある。 0.85
Further ideas can be found in Ref. さらなるアイデアはRefで見ることができる。 0.68
[41]. For data-based calibration, a machine learning procedure was recently proposed in Ref. [41]. データベースのキャリブレーションでは、refで機械学習手順が提案されている。 0.46
[42]. Caution is needed to ensure that calibrations resulting from a machine learning approach satisfy certain important properties. [42]. 機械学習アプローチによる校正が特定の重要な特性を満たすことを保証するには、注意が必要である。 0.50
One critical property of a calibration is that it should be universal – a calibration derived in one キャリブレーションの1つの重要な特性は、それが普遍的であるべきであることである。
訳抜け防止モード: キャリブレーションの重要特性の一つは 普遍的であるべきである - 1つから派生したキャリブレーション
0.74
英語(論文から抽出)日本語訳スコア
place should be applicable elsewhere. 場所は別の場所に当てはまるべきだ。 0.58
A non-universal calibration would have a rather limited utility, and can produce undesirable results if applied to a dataset that does not exactly match the calibration dataset. 非ユニバーサルキャリブレーションは、かなり限られたユーティリティを持ち、キャリブレーションデータセットと正確に一致しないデータセットに適用すれば、望ましくない結果が得られる。 0.75
Statistically, universality is synonymous with prior independence. 統計的には、普遍性は事前の独立と同義である。 0.55
Most of the existing machine learning-based calibration proposals, though, are inherently prior dependent, as we will explain below. しかし、既存の機械学習ベースのキャリブレーション提案のほとんどは、以下に説明するように、本質的には事前依存している。 0.62
A second critical property of a calibration is closure, which means that on average, the calibration produces the correct answer.1 キャリブレーションの第2の臨界特性はクロージャであり、つまり平均すると、キャリブレーションは正しい回答を生成する。
訳抜け防止モード: キャリブレーションの第二の臨界特性は閉包である。 平均して キャリブレーションは 正しい答えを生み出す。 1。
0.72
To quantify closure, one often computes the bias of a calibration, which is the average deviation of the calibrated result from the target value. クロージャを定量化するために、目標値からキャリブレーション結果の平均偏差であるキャリブレーションのバイアスを計算することが多い。 0.64
A calibration can be biased due to the choice of estimator or fitting procedure used, even if the usual pitfalls of dataset-induced biases are taken care of. キャリブレーションは、たとえデータセット誘発バイアスの通常の落とし穴が処理されたとしても、使用する推定器や適合手順の選択によってバイアスを受けることができる。 0.68
As explained below, universality and closure are related, and a prior-dependent calibration will necessarily have irreducible bias.2 以下に説明するように、普遍性と閉包は関連しており、事前依存のキャリブレーションは必ず既約バイアスを持つ。 0.48
In this paper, we explain the origin of prior dependence for common calibration techniques, with explicit illustrative examples, and demonstrate the associated bias that these procedures incur. 本稿では,一般的なキャリブレーション手法における事前依存の起源を明示的な例で説明し,これらの手続きが生み出すバイアスを実証する。 0.85
For simulation-based calibrations, we advocate for our Gaussian Ansatz [43] as a machine-learning-bas ed strategy that is prior independent and bias-free. シミュレーションに基づくキャリブレーションでは,従来の独立性とバイアスのない機械学習ベースの戦略としてガウスアンサッツ[43]を提唱する。 0.72
For data-based calibrations, we are unaware of any prior-independent methods in the literature. データに基づくキャリブレーションでは、文献に先行する非依存の手法を知らない。 0.69
Many of the conclusions of this paper are well-known to the experts, but we hope that by highlighting these issues, we can inspire the development of prior-independent calibration methods. 本論文の結論の多くは専門家によく知られるものであるが,これらの問題を強調することにより,先行非依存キャリブレーション手法の開発を促すことができることを期待する。 0.71
The remainder of this paper is organized as follows. 本論文の残りは以下のとおり整理される。 0.81
In Sec. II, we review the statistical properties of machinelearning-base d calibration. Sec。 機械学習に基づく校正の統計特性について概説する。 0.46
In Sec. III, we clarify the meaning of resolution and uncertainty in the HEP context. Sec。 3)HEPコンテキストにおける解像度と不確実性の意味を明らかにする。 0.44
To demonstrate the issue of prior dependence, we present Gaussian examples in Sec. 事前依存の問題を示すために、我々は sec でガウスの例を示す。 0.61
IV. In Sec. V, we study an HEP application of calibration in the context of jet energy measurements at the LHC. IV。 Sec。 V, LHCにおけるジェットエネルギー測定の文脈におけるキャリブレーションのHEP応用について検討した。 0.46
The paper ends in Sec. 論文はSecで終わります。 0.56
VI with our conclusions and outlook. vi 結論と展望と共に。 0.52
II. THE STATISTICS OF CALIBRATION In this section, we review some of the basic features of simulated-based and data-based calibration, and discuss the issues of prior dependence and bias. II。 校正の統計 本稿では,シミュレーションベースおよびデータベースキャリブレーションの基礎的特徴を概観し,事前依存とバイアスの問題について議論する。 0.67
1 Any measure of central tendency can be used to measure closure, such as the median or mode. 1 中心的傾向の指標は、中央値又はモード等の閉口を測定するために使用することができる。 0.75
In this paper, we will focus on the mean, as it is the usual target in machine learning and HEP applications. 本稿では、機械学習およびHEPアプリケーションにおける通常のターゲットであるため、平均に焦点を当てる。 0.72
2 Prior independence is a necessary prerequisite for closure. 2 事前独立は閉鎖に必要な前提条件である。 0.71
How- ever, even with prior independence, closure is not guaranteed. 方法 たとえ 事前の独立であっても 閉鎖は保証されない 0.50
2 A. Simulation-based Calibration 2 A. シミュレーションに基づく校正 0.51
In simulation-based calibration, the goal is to infer target (or true) features zT ∈ RN from detector-level features xD ∈ RM – that is, to construct an estimator or calibration function f : RM → RN where シミュレーションベースのキャリブレーションでは、目標(または真)の特徴であるzT ∈ RNを検出器レベルの特徴 xD ∈ RM から推定すること、すなわち、推定器またはキャリブレーション関数 f : RM → RN を構築することである。 0.79
ˆzT = f(xD) f(xd) = f(xd) である。 0.50
(1) is the inferred estimate. (1) 推定された推定値です 0.52
To carry out simulation-based calibration, one starts with a set of (xD, zT ) pairs, which typically come from an in-depth numerical simulation of an experiment. シミュレーションベースのキャリブレーションを実行するには、実験の詳細な数値シミュレーションから得られる(xD, zT )ペアのセットから始める。
訳抜け防止モード: シミュレーション-ベースキャリブレーションを実行する 1つは (xD, zT ) 対の集合から始まる。 実験の深さの数値シミュレーションが典型的です。
0.75
For the case study in Sec. Secのケーススタディについて 0.48
V, xD will be the experimentally measurable features of hadronic jets and zT will be the true jet energy. V, xDはハドロンジェットの実験的に測定可能な特徴であり、zTは真のジェットエネルギーとなる。 0.76
For concreteness, one can think of the calibration function f as being parameterized by a universal function approximator such as a neural network, whose weights and biases are learned. 具体的には、キャリブレーション関数fは、重みとバイアスが学習されるニューラルネットワークのような普遍関数近似器によってパラメータ化されると考えることができる。 0.76
This is often done by minimizing the mean squared error (MSE) loss: これは、平均二乗誤差(MSE)損失を最小限にすることで行われることが多い。 0.61
fMSE = argmax fMSE = argmax 0.42
g Etrain[(g(XD) − ZT )2], g Etrain[(g(XD) − ZT )2], 0.39
(2) where capital letters correspond to random variables and E represents the expectation value over the training sample used to derive the calibration. (2) ここで大文字はランダム変数に対応し、Eはキャリブレーションの導出に使われるトレーニングサンプルの期待値を表す。 0.60
The calibration function is then deployed on the testing sample, which could be the data set of interest or a hold-out control region. キャリブレーション機能はテストサンプルにデプロイされ、関心のあるデータセットやホールドアウトコントロール領域になる可能性がある。 0.65
Using the calculus of variations, one can show that with enough training data, a flexible enough functional parameterization, and a sufficiently exhaustive training procedure, the asymptotic solution to Eq (2) is: 変動の計算を用いて、十分なトレーニングデータ、十分な機能パラメータ化、十分な徹底的なトレーニング手順により、Eq (2)に対する漸近解は次のようになる。 0.76
fMSE(xD) = Etrain[ZT|XD = xD], fMSE(xD) = Etrain[ZT|XD = xD], 0.46
(3) where lowercase letters correspond to an instance of a random variable. (3) 小文字がランダム変数のインスタンスに対応する場合。 0.52
In this way, f learns the mean value of zT for a given xD in the training set. このようにして、f はトレーニングセット内の与えられた xD に対する zT の平均値を学ぶ。 0.75
Alternative loss functions result in statistics other than the mean. 別の損失関数は平均以外の統計結果をもたらす。 0.84
See e g Ref. e g ref を参照。 0.72
[44] for alternative approaches, including mode learning, which is a standard target for many traditional calibrations (usually in the form of truncated Gaussian fits; see e g [9]). [44] は、多くの伝統的なキャリブレーションの標準的ターゲットであるモード学習を含む代替のアプローチである(通常、ガウス整合の形式である: e g [9] を参照)。 0.84
B. Prior Dependence and Bias B.事前依存とバイアス 0.68
A key assumption of simulation-based calibration is シミュレーションに基づく校正の鍵となる仮定は 0.77
that the detector response is universal: 検出器の応答は普遍的です 0.71
ptest(xD|zT ) = ptrain(xD|zT ). ptest(xD|zT ) = ptrain(xD|zT )。 0.40
(4) This equation says that for a given truth input zT , the detector response is the same between the training data used for deriving the calibration and the testing data used for deploying the calibration. (4) この式は, 与えられた真理入力zTに対して, 校正の導出に用いる訓練データと校正の展開に用いる試験データとが同一であることを示す。 0.70
In some cases, the detector response might depend on more features than zT , and if these hidden features are mismodeled, then Eq (4) may 場合によっては、検出器応答はzTよりも多くの特徴に依存し、これらの隠れた特徴が誤モデル化されている場合、Eq (4) 0.67
英語(論文から抽出)日本語訳スコア
Z Z Z (複数形 Zs) 0.37
not hold. For our analysis of simulation-based calibration, we asssume Eq (4) throughout. 持たない シミュレーションに基づくキャリブレーションの解析では、Eq (4) を全体にわたって仮定する。 0.53
Calibrations of the form of Eq (3) are not universal, even if the detector response is. Eq (3) の形の校正は、たとえ検出器応答であっても普遍的ではない。 0.78
Writing out the MSEbased calibration in integral form, we have: MSEベースのキャリブレーションを積分形式で書き出すと、次のようになる。 0.47
fMSE(xD) = fMSE(xD) = 0.42
= dzT zT ptrain(zT|xD) dzT zT ptrain(xD|zT ) ptrain(zT ) ptrain(xD) . = dzT zT ptrain(zT|xD) dzT zT ptrain(xD|zT ) ptrain(zT ) ptrain(xD)。 0.67
(5) Here, we have used Bayes’ theorem to make explicit the dependence of f on ptrain(zT ), the prior of true values used for the training. (5) ここではベイズの定理を用いて、訓練に使用する真の値の前のptrain(zT)に対する f の依存を明確にする。 0.59
Thus, even if ptrain(xD|zT ) is universal via Eq (4), the truth distribution is not: ptest(zT ) 6= ptrain(zT ). したがって、ptrain(xD|zT ) が Eq (4) を介して普遍であるとしても、真理分布は次のようになる: ptest(zT ) 6= ptrain(zT )。 0.74
(6) The non-universality of the calibration function leads to bias, as we now explain. (6) キャリブレーション関数の不等式は、現在説明されているようにバイアスをもたらす。 0.63
The bias b(zT ) of a calibration quantifies the degree of non-closure. 校正のバイアスb(zt)は、非閉塞度を定量化する。 0.62
Specifically, bias is the average difference between the reconstructed value and the truth reference value. 具体的には、バイアスは再構成された値と真理参照値の平均差である。 0.72
It is evaluated over the test sample, conditioned on the truth values: テストサンプル上で評価され、真理値に基づいて条件付けされる。 0.72
b(zT ) = Etest[f(XD) − zT|ZT = zT ]. b(zt ) = etest[f(xd) − zt|zt = zt ] である。 0.69
(7) A bias of zero means that, on average, the reconstructed and truth values agree. (7)ゼロのバイアスは、平均して再構成された値と真理値が一致することを意味する。 0.70
For MSE regression, the bias is: MSE回帰の場合、バイアスは次のようになる。 0.51
(8) b(zT ) + zT = (8) b(zT ) + zT = 0.42
dxD fMSE(xD) ptest(xD|zT ) dxD dz0 dxD fMSE(xD)ptest(xD|zT ) dxD dz0 0.46
= T z0 T ptrain(z0 = T z0 T ptrain(z0) 0.42
T|xD) ptest(xD|zT ). T|xD) ptest(xD|zT )。 0.73
This bias is dependent on the training prior through T|xD). このバイアスは、T|xDを通したトレーニングに依存する)。 0.60
Thus, a prior-dependent calibration is necptrain(z0 essarily biased, since it depends on the choice of ptrain(zT ). したがって、事前依存キャリブレーションはptrain(zT)の選択に依存するため、Necptrain(z0)の偏りが強い。 0.65
Note that even if the training dataset is statistically identical to the testing dataset (i.e. ptest(zT ) = ptrain(zT )), it is not guaranteed that the calibration will be unbiased. トレーニングデータセットがテストデータセット(ptest(zT ) = ptrain(zT ))と統計的に同一であるとしても、キャリブレーションが偏りがないことは保証されない。 0.74
One way to reduce the bias is if the prior is “wide and flat enough”, such that the prior asymptotically approaches a uniform sampling over the real line relative to the detector response. バイアスを減らす方法の1つは、前者が「十分に広く平坦」であり、前者が検出器反応に対する実線上の一様サンプリングに近づいた場合である。 0.66
For example, one can show using Eq. 例えば、Eqを使って示すことができる。 0.81
(8) that if the prior p(zT ) is Gaussian with extent σ, and the detector response p(xD|zT ) is a Gaussian noise model with extent , then the bias scales as: (8) 先行の p(zT ) が σ の範囲でガウス的であり、検出器応答 p(xD|zT ) が σ の範囲でガウス的雑音モデルであれば、バイアスは次のようにスケールする。 0.72
b(zT ) ∼(cid:16)  b(zT ) >(cid:16) > 0.39
(cid:17)2 σ (出典:17)2 σ 0.58
(cid:18)(cid:16)  (cid:18)(cid:16) 0.42
(cid:17)4(cid:19) (cid:17)4(cid:19) 0.39
σ zT + O . σ zT + O . 0.43
(9) In cases with steeply falling spectra, as is common in HEP, prior dependence usually leads to large biases in calibration. (9) hepでよく見られるように、急降下するスペクトルの場合、事前依存は通常、キャリブレーションにおいて大きなバイアスをもたらす。 0.56
Z Z Z (複数形 Zs) 0.37
3 as described above, which means that they are biased. 3 上述したように 偏りがあるということです 0.51
That said, there are alternative methods to mitigate the prior dependence and thereby reduce the bias. そうは言っても、事前の依存を緩和し、バイアスを減らす別の方法がある。 0.61
For example, simulation-based jet calibrations at the LHC use a technique called numerical inversion (see e g Ref. [45]). 例えば、LHCのシミュレーションに基づくジェットキャリブレーションでは、数値反転と呼ばれる手法が用いられている(例:Ref. [45])。 0.73
The idea of numerical inversion inversion is to regress xD from zT with a function g(zT ) and then define the calibration function through the inverse: 数値逆反転の考え方は、関数 g(zT ) で xD を zT から退避させ、その逆を通してキャリブレーション関数を定義することである。 0.80
fNI(xD) = g−1(xD). fNI(xD) = g−1(xD)。 0.93
(10) Traditionally, xD is one-dimensional and g is parameterized with functions that can be easily inverted numerically, hence the name. (10) 伝統的に、xD は 1 次元であり、g は数値的に逆転できる関数でパラメータ化される。 0.58
The function g is given by: g(zT ) = Etrain[XD|ZT = zT ]. 函数 g は g(zT ) = Etrain[XD|ZT = zT ] で与えられる。 0.79
(11) Since the detector response p(xD|zT ) is universal, g is universal, and thus the derived f is also universal. (11) 検出器応答 p(xD|zT) は普遍であるため、g は普遍であり、導出した f もまた普遍である。 0.59
Under certain assumptions, the f from numerical inversion is also unbiased [45]. ある仮定の下では、数値反転からの f もまた偏りがない [45]。 0.70
Numerical inversion has been extended to work with neural networks [23, 24], where the inversion step is accomplished with a second neural network. 数値インバージョンはニューラルネットワーク [23, 24] で動作するように拡張され、第2のニューラルネットワークでインバージョンステップが完了する。 0.72
Alternatively, it may be possible to also achieve this with a natively invertible neural network such as a normalizing flow [46, 47]. あるいは、正規化フロー[46, 47]のようなネイティブ可逆ニューラルネットワークでもこれを達成することができるかもしれない。 0.76
A key challenge with numerical inversion and its neural network generalizations are that they do not scale well to high dimensions. 数値反転とそのニューラルネットワークの一般化における重要な課題は、それらが高次元にうまくスケールしないことである。 0.68
In Ref. [43], we propose an alternative way to achieve a prior-independent calibration that scales well to highand variable-dimensional settings. refで。 43]では,高次元および可変次元の設定に順応する事前独立キャリブレーションを実現する方法を提案する。 0.67
This approach is based on finding the local maximum likelihood, such that the learned calibration function becomes: このアプローチは、学習された校正関数が次のようになるような局所的最大度を求めることに基づいている。
訳抜け防止モード: このアプローチは 学習したキャリブレーション関数が次のようになるように、局所的な最大度を求める。
0.72
fMLC(xD) = argmax fMLC(xD) = argmax 0.42
zT ptrain(xD|zT ) , zT ptrain(xD|zT ) , 0.43
(12) where MLC stands for maximum likelihood classifier – see Ref. (12) MLC は最大可算分類器の略で、Ref を参照。 0.58
[48]. Again, because the detector response p(xD|zT ) is universal, maximum likelihood calibrations are universal,3 and in certain configurations, are provably unbiased. [48]. また、検出器応答p(xd|zt ) は普遍であるため、最大度校正は普遍的であり、特定の構成では確実に偏りがない。 0.48
In particular, if the detector response p(xD|zT ) is a Gaussian noise model centered on zT , then one can show that the bias is zero using Eq (7): 特に、検出器応答 p(xd|zt ) が zt を中心とするガウス雑音モデルであれば、eq (7) を用いてバイアスがゼロであることを示すことができる。 0.74
b(zT ) + zT = b(zT ) + zT = 0.42
[p(xD|zT )] p(xD|zT ) (13) [p(xD|zT )]p(xD|zT )(13) 0.45
dxD argmax 1√2π2 dxd argmax 1/2π2 0.27
dxD xD zT − (xD−zT )2 dxD xD zT − (xD−zT )2 0.43
22 e Z Z 22 へえ Z (複数形 Zs) 0.40
= = zT . zt = zt である。 0.58
Here, we have made use of the fact that for a Gaussian, p(xD|zT ) is maximized at xD = zT , and that the average ここでは、ガウスについて、p(xD|zT ) が xD = zT で最大化され、平均が成り立つという事実を利用した。 0.69
C. Mitigating Prior Dependence c. 事前依存の緩和 0.65
A majority of simulation-based calibrations (with or without machine learning) are set up using the MSE loss MSE損失を用いたシミュレーションに基づく校正(機械学習の有無にかかわらず)の多数設定 0.82
3 One important caveat is that universality here means prior independence over the space of priors that share the same support as the training set. 3 重要な注意点のひとつは、ここでは普遍性はトレーニングセットと同じサポートを共有する事前の空間に対する事前の独立性を意味する。
訳抜け防止モード: 3つ目は ここでの普遍性とは 訓練セットと同じ支援を共有する 事前の空間に対する 事前の独立を意味する
0.75
One cannot get away with training a model on a single zT instance and expecting it to work everywhere! 1つのzTインスタンスでモデルをトレーニングし、どこでも機能することを期待することは不可能です。 0.68
英語(論文から抽出)日本語訳スコア
of this Gaussian is simply zT . このガウス群は単に zt である。 0.57
This conclusion holds even if the detector response includes offsets, or if the noise  depends on zT .4 The strategy in Ref. この結論は、検出器応答がオフセットを含む場合、またはノイズがzt .4に依存する場合、refの戦略が成り立つ。 0.70
[43] is to estimate the (local) likelihood density by extremizing the Donsker-Varadhan representation (DVR) [49, 50] of the Kullback-Leibler divergence [51]: [43]は,Kulback-Leibler発散[51]のDonsker-Varadhan表現(DVR)[49,50]を過小評価することにより,(局所)確率密度を推定する。 0.81
(cid:2)f(xD, zT )(cid:3) (cid:2)f(xD, zT )(cid:3) 0.45
(cid:2)ef(xD,zT )(cid:3) . (cid:2)ef(xD,zT )(cid:3)。 0.82
L[f] = Ep(xD,zT ) L[f] = Ep(xD,zT ) 0.43
− log Ep(xD)p(zT ) − log Ep(xD)p(zT ) 0.43
(14) By parametrizing f(xD, zT ) via a specially chosen Gaussian Ansatz (see Ref. [43] for details), one can extract the local maximum likelihood estimate and resolution with a single neural network training. (14) f(xD, zT ) を特別に選択されたガウスアンサッツ(詳細は[43]参照)を介してパラメトリズすることにより、単一のニューラルネットワークトレーニングで局所的な最大推定と分解を抽出することができる。 0.59
We focused on regression in the above discussion, but prior dependence also appears in classification calibration. 上記の議論では回帰に着目したが,事前の依存度は分類校正にも現れる。 0.68
A classifier trained with the MSE loss function or the binary cross entropy (BCE) will learn the probability of the signal given an observed xD. MSE損失関数またはバイナリクロスエントロピー(BCE)で訓練された分類器は、観測されたxDの信号の確率を学習する。 0.86
If the fraction of signal is different in the training set and the test set, that is, ptest(zT ) 6= ptrain(zT ), then the output can no longer be interpreted as the probability of the signal. トレーニングセットとテストセット、すなわちptest(zT ) 6= ptrain(zT )で信号の分数が異なる場合、出力は信号の確率として解釈できない。 0.59
Luckily, classifiers (often called taggers) are almost never used this way in HEP, since the classification score is not interpreted directly as a probability.5 幸運にも、分類スコアが直接確率として解釈されないため、分類器(しばしばタガーと呼ばれる)はhepでは、ほとんど使われない。 0.67
In this case, simulation-based calibrations may not be required,6 though data-based calibrations are still essential, as described next. この場合、次に述べるようにデータに基づく校正は必要だが、シミュレーションに基づく校正は必要ないかもしれない。 0.60
D. Data-based Calibration D. データに基づく校正 0.60
In data-based calibration, the goal is to account for possible differences between a true detector response, pdata(xD) and a simulated detector model psim(xD). データに基づくキャリブレーションでは、真の検出器応答 pdata(xD) とシミュレーション検出器モデル psim(xD) の相違を考慮することが目的である。 0.80
That is, the goal is to match detector level features xD between data and a simulation at the distribution level, in contrast to simulation-based distribution, where the goal is to match xD and a target feature zT at the object level. すなわち、xD と対象特徴 zT とをオブジェクトレベルで一致させることを目標とするシミュレーションベース分布とは対照的に、データと分布レベルでのシミュレーションとで、検出器レベルの特徴 xD を一致させることが目的である。 0.88
Usually, pdata(xD) is a control data set, and detector output generated from truth-level features zT . 通常、pdata(xd) は制御データセットであり、真理レベル特徴 zt から生成される検出器出力である。 0.73
In the machine learning literature, data-based calibration is called domain adaptation. 機械学習の文献では、データに基づくキャリブレーションをドメイン適応と呼ぶ。 0.76
Machine learning domain adaptation has been widely studied in the context 機械学習の領域適応は、文脈で広く研究されてきた 0.67
psim(xD) = R dzT psim(xD|zT ) ptrain(zT ) is a simulated psim(xd) = r dzt psim(xd|zt ) ptrain(zt ) はシミュレーションである。 0.81
4 It is not always true that a maximum likelihood calibration is unbiased. 4 最大極大校正が不偏であることは必ずしも事実ではない。 0.71
For instance, if XD is drawn from a uniform distribution U(0, zT ), then the maximum likelihood estimate from a single xD sample is ˆzT = xD, whereas an unbiased estimate would be ˆzT = 2xD. 例えば、XD が一様分布 U(0, zT ) から引き出される場合、単一の xD サンプルから得られる最大推定値は シュズT = xD であり、一方、偏りのない推定は シュズT = 2xD である。 0.78
5 See Ref. [52] for a review in the machine learning literature and Ref. 5 参照。 [52]機械学習文献とrefのレビューのために 0.54
[53] for related studies in the context of HEP likelihood ratios. 53]HEP確率比の文脈における関連研究について検討した。 0.73
6 There may be practical issues associated with prior dependence, e g , if there is an extreme class imbalance, the classifier may not learn well. 6 事前依存に関連する実践的な問題、例えば、極端なクラス不均衡がある場合、分類器はよく学習できないことがある。 0.78
In the extreme limit of only one class present in the training, then there is a prior dependence also on the result. トレーニングに1つのクラスしか存在しない極端な制限では、結果にも事前依存がある。
訳抜け防止モード: 極端に限っては、訓練には1つのクラスしか存在しない。 すると 結果にも 事前依存がある。
0.63
4 of HEP [53–57] (see also decorrelation [58–74]), but these tools have not yet been applied to per-object calibrations. 4 HEP [53-57] (デコリレーション [58-74] も参照) は、これらのツールはまだ対象ごとの校正には適用されていない。 0.55
Traditional methods typically use binned or simple parametric approaches to calibrate differences between data and simulation. 従来の手法では、データとシミュレーションの違いをキャリブレーションするために、双対あるいは単純なパラメトリックアプローチを用いる。
訳抜け防止モード: 伝統的手法は通常、双対あるいは単純なパラメトリックアプローチを使用する データとシミュレーションの違いを
0.79
The authors of Ref. [42] propose to use tools from the field of optimal transport (OT) to perform the data-based calibration using machine learning. Refの作者。 42] 最適輸送(ot)分野のツールを用いて,機械学習を用いたデータに基づく校正を行うことを提案する。 0.71
The central idea is to learn a map h : RN → RN that “moves” xD as little as possible, but still achieves psim(xD) 7→ pdata(xD). 中心となる考え方は、可能な限り xD を「動く」写像 h : RN → RN を学ぶことであるが、それでも psim(xD) 7 → pdata(xD) を達成する。 0.79
In this case, the OT-based calibration is: この場合、OTベースのキャリブレーションは: 0.66
ˆp(xD) = psim(h(xD))|h0(xD)| , yp(xD) = psim(h(xD))|h0(xD)| , 0.45
(15) where |h0(xD)| is the Jacobian factor. (15) ここで |h0(xd)| はヤコビ因子である。 0.69
The precise transportation map depends on the choice of OT metric. 正確な輸送マップは、OTメトリックの選択に依存する。 0.79
Eq. (15) can be interpreted as shifting simulated samples xD to h(xD), and additionally re-weighting each sample by |h0(xD)|. eqだ (15) は、模擬サンプル xD を h(xD) にシフトさせ、さらに、各サンプルを |h0(xD)| で再重み付けすることができる。 0.71
One can also write a corresponding expression for the OT-calibrated detector model, conditioned on zT : zT : に条件付きOT校正検出器モデルに対する対応する式を書くこともできる。 0.76
ˆp(xD|zT ) = psim(h(xD)|zT )|h0(xD)| . p(xd|zt ) = psim(h(xd)|zt )|h0(xd)| である。 0.72
(16) Eq. (16) can be thought of as a “corrected simulated reponse” function that accounts for mismodeling in the original simulation, psim(xD|zT ). (16) eqだ (16) は、元のシミュレーション psim(xd|zt ) における誤モデリングを説明する「修正された模擬応答関数」と考えることができる。 0.63
At first glance, Eq (16) might seem prior independent, since it is conditioned on the truth-level zT . 一見すると、Eq (16) は真理レベル zT で条件づけられているため、事前独立に思えるかもしれない。 0.70
As we will see, though, there is implicit prior dependence in h. しかし、私たちが見るように、h には暗黙の事前依存がある。 0.64
For simplicity, consider the special case of one dimension. 単純さのため、1次元の特別な場合を考える。 0.69
Here, for any OT metric, the OT map h : R → R is simply given by: ここで、任意の OT 計量に対して、OT 写像 h : R → R は次のように与えられる。 0.68
h(xD) = P −1 h(xD) = P−1 0.46
Pλ(xD) =R xD−∞ dx0 Pλ(xD) = R xD−∞ dx0 0.36
(17) where Pλ is the cumulative distribution function of λ, i.e. ). 17) ここで pλ は λ,すなわち λ の累積分布関数である。 0.82
This function maps quantiles of the simulated distribution to quantiles of the data distribution. この関数は、シミュレーション分布の分位数をデータ分布の分位数にマップする。 0.75
The Jacobian of this transformation is: この変換のヤコビアン(Jacobian)は、 0.60
data(Psim(xD)), データ(psim(xd)) 0.57
D pλ(x0 D D pλ(x0) D 0.39
|h0(xD)| = psim(xD) pdata(h(xD)) |h0(xD)| = psim(xD) pdata(h(xD)) 0.47
R dzT psim(xD|zT ) ptrain(zT ) R dzT psim(xD|zT ) ptrain(zT ) 0.50
= pdata(h(xD)) = pdata(h(xD)) 0.43
(18) . Thus, since the prior ptrain(zT ) explicitly appears, the derived OT-based detector model in Eq (16) is prior dependent. (18) . したがって、前のptrain(zT ) が明示的に現れるため、Eq (16) における OT ベースの検出器モデルが事前に依存している。 0.51
In line with simulation-based calibration, the bias of a data-based calibration is the average difference between the estimator ˆp(xD) and the desired value pdata(xD), conditioned on xT .7 For OT-based calibration, the bias per シミュレーションに基づく校正と合わせて、データに基づく校正のバイアスは、otベースの校正のためにxt.7で条件づけされた推定値pdata(xd)と所望値pdata(xd)の平均差である。 0.77
7 This differs from the simulation-based calibration definition, which was conditioned on zT . 7) シミュレーションに基づくキャリブレーション定義と異なり,zt 上で条件づけされた。 0.64
In data, there is no truth level zT . データでは、真理レベル zT はありません。 0.82
However, sometimes, a proxy can be used as a zT in data, allowing for a direct comparison of true versus reconstructed zT values in data-based calibration. しかし、時にプロキシをデータ内のzTとして使用することで、データベースのキャリブレーションにおいて真と再構成されたzT値を直接比較することができる。 0.65
For example, when performing data-based calibration on a Z+jets sample, the pT of the Z can be used as a proxy for the true jet pT . 例えば、Z+jetsサンプルでデータベースの校正を行う場合、ZのpTは真のジェットpTのプロキシとして使用できる。
訳抜け防止モード: 例えば、いつ データを実行する - Z+jetsサンプルのキャリブレーションに基づく。 Z の pT は真のジェット pT のプロキシとして用いることができる。
0.81
英語(論文から抽出)日本語訳スコア
written as the variance of differences between the reconstructed and truth values, conditioned on the truth values, evaluated over the test sample: 再建された真理値と真理値の差分として書かれ、真理値に基づいて、テストサンプルで評価される。
訳抜け防止モード: 再建された値と真理値の差分として書かれています テストサンプルで評価された真理値に基づいて
0.85
(19) 5 xD bin is: (19) 5 xD bin は 0.47
Z b(xD) = psim(h(xD))|h0(xD)| − pdata(xD) Z b(xD) = psim(h(xD))|h0(xD)| − pdata(xD) 0.44
= dzT psim(h(xD)|zT ) ptest(zT )|h0(xD)| = dzT psim(h(xD)|zT ) ptest(zT )|h0(xD)| 0.46
− pdata(xD). -pdata(xD)。 0.71
If ptest(zT ) = ptrain(zT ), then the bias is zero. ptest(zT ) = ptrain(zT ) ならば、バイアスはゼロである。 0.72
Otherwise, the calibration is biased, a consequence of prior dependence. さもなければキャリブレーションは偏りがあり、これは事前依存の結果である。 0.55
Note that this is in contrast to simulation-based calibration, where non-universality can imply a bias even if ptest(zT ) = ptrain(zT ). これは、ptest(zT ) = ptrain(zT ) であっても非ユニバーシティがバイアスを示唆できるシミュレーションベースのキャリブレーションとは対照的である。 0.71
E. Unbiased Data-based Approaches? E. 偏見のないデータベースのアプローチ? 0.54
R dzT ˆp(xD|zT ) ptrain(zT ) – that is to say, the simulated R dzT >p(xD|zT ) ptrain(zT ) – つまり、シミュレートされた。 0.83
As defined above, the goal of a data-based calibration is to match psim(xD) to pdata(xD). 上述したように、データベースのキャリブレーションの目標は、psim(xD)とpdata(xD)をマッチングすることである。
訳抜け防止モード: 上述の通り。 データ-ベースキャリブレーションの目標は、psim(xD ) と pdata(xD ) を一致させることである。
0.67
This is an inherently prior dependent task, however, since ˆp(xD) = detector output depends on the simulation input. しかし、これは本質的には先行的な依存タスクである、なぜなら はp(xD) = 検出器出力はシミュレーション入力に依存するからである。
訳抜け防止モード: しかし、これは本質的に前もって従属するタスクである。 検出器出力はシミュレーション入力に依存する。
0.70
Instead, one can ask if the corrected response function, ˆp(xD|zT ), is universal. 代わりに、補正された応答関数 yp(xD|zT ) が普遍かどうかを問うことができる。 0.71
If it is, then one can use the same corrected response function to generate ˆp(xD) for a variety of priors ptest(zT ). もしそうであれば、様々な事前 ptest(zT ) に対して、同じ修正された応答関数を使って shp(xD) を生成することができる。 0.70
At least in the case the special case of one dimensional OT-based calibration, however, we have shown above that the corrected response function is not universal. しかし,少なくとも一次元otベースキャリブレーションの特別な場合においては,補正された応答関数は普遍的ではないことを示す。 0.76
To our knowledge, no one has proposed a data-based calibration method that is prior independent, whether using machine learning or not. 我々の知る限りでは、機械学習の有無に関わらず、事前に独立したデータベースの校正手法は提案されていない。 0.63
This implies that all databased calibration methods in use are biased, though the degree of bias may be small if the testing and training truth-level densities are similar enough. これは、使用中の全てのデータベースキャリブレーション手法が偏りがあることを意味するが、テストとトレーニングの真理レベルの密度が十分類似している場合、バイアスの程度は小さいかもしれない。 0.60
We encourage the community to develop a prior-independent data-based calibration strategy, or prove that it is impossible. 我々は、コミュニティに対して、事前非依存のデータベースの校正戦略の開発を奨励する。 0.59
III. RESOLUTION AND UNCERTAINTY IN III。 解決と不確実性 0.63
CALIBRATIONS The discussion thus far has focused on mitigating bias in calibration. キャリブレーション これまでの議論では、キャリブレーションのバイアスの緩和に重点を置いてきた。 0.43
Two related concepts are the resolution and uncertainty of a calibration. 関連する2つの概念は、キャリブレーションの解像度と不確実性である。 0.57
In this section, we review calibration resolution and uncertainty, and clarify important nomenclature in HEP settings. 本稿では,キャリブレーションの解決と不確実性を概観し,HEP設定における重要な命名法を明らかにする。 0.58
A. Resolution As already mentioned, the bias of a calibration refers to the difference in central tendency (such as the mean, median, or mode) between a reconstructed quantity and a reference quantity. a. 解決 キャリブレーションのバイアス(英: bias of a calibration)とは、再構成された量と基準量の間の中央傾向(平均、中央値、モードなど)の違いを指す。 0.65
By contrast, the resolution of a calibration refers to the spread in the difference between the reconstructed and reference quantities. 対照的に、校正の解像度は、再構成された量と基準量の差の広がりを指す。 0.69
Using variance as our measure of spread, the resolution Σ2(zT ) can be 分散を拡散の尺度として使うと、分解能 σ2(zt ) は 0.65
Σ2(zT ) = Vartest[f(XD) − zT|ZT = zT ]. σ2(zt ) = vartest[f(xd) − zt|zt = zt ] である。 0.66
(20) Resolutions, like biases, can be prior-dependent. (20) バイアスのような解像度は、事前に依存できる。 0.48
When using the MSE-based calibration (Eq. MSEベースのキャリブレーション(Eq)を使用する場合。 0.60
(3)), this becomes: (21) Σ2(zT ) + bz(zT ) ptest(xD|zT ). (3)) となり、これは (21) Σ2(zT ) + bz(zT ) ptest(xD|zT ) となる。 0.87
= T|xD) − zT = T|xD) − zT 0.42
(cid:18)Z dzT z0 (cid:18)z dzT z0 0.42
T ptrain(z0 T ptrain(z0) 0.39
(cid:19)2 Z (cid:19)2 Z 0.42
dxD T|xD). dxD T|xD)。 0.58
The prior-dependence is seen by applying Bayes’ Theorem to ptrain(z0 As before, this prior dependence can be reduced if the prior is wide compared to the detector response. 先行依存性は、ベイズの定理をptrain(z0)に適用することにより見ることができ、前者が検出器応答よりも広い場合、この先行依存性を減少させることができる。
訳抜け防止モード: 先行する - 依存は 前のようにptrain(z0)にベイズ定理を適用する この事前の依存度を減らせることは 前者は検出器応答に比較して広い。
0.70
If the prior p(zT ) is Gaussian with extent σ, and the detector response p(xD|zT ) is a Gaussian noise model with extent , then by applying Eq (22), one can show that the resolution scales as: 先行の p(zT ) が範囲 σ でガウス的であり、検出器応答 p(xD|zT ) が範囲 σ のガウス的雑音モデルであれば、Eq (22) を適用することにより、分解は次のようにスケールすることを示すことができる。 0.72
Σ2(zT ) ∼ 2 + O Σ2(zT ) シュ・シュ2 + O 0.76
2. (22) (cid:18)(cid:16)  2. (22) (cid:18)(cid:16) 0.43
(cid:17)4(cid:19) (cid:17)4(cid:19) 0.39
σ On the other hand, for the prior-independent MLC calibration (Eq. σ 一方,事前独立型mlcキャリブレーション(eq)について検討した。 0.48
(12)), the resolution can be shown to be: (12)) 解像度は次のようになる。 0.65
Σ2(zT ) = 2. σ2(zt ) = σ2 である。 0.53
(23) In HEP (and many other) applications, however, it is common to instead refer to the resolution with respect to a measurement xD rather than the true value zT . (23) しかし、HEP(および他の多くの応用)では、真の値 zT ではなく、測度 xD に関する分解を参照することが一般的である。 0.57
That is, for an inference ˆzT = f(xD), we would like a measure of the spread of zT values consistent with this measurement, which we will denote Σ(xD) (distinguished by the xD argument rather than zT ). すなわち、推測 szT = f(xD) に対して、この測度と整合した zT 値の拡散の測度を求め、これは Σ(xD) と表す(zT ではなく xD の引数によって区別される)。 0.74
Depending on the context and type of calibration, there are a variety of ways to define Σ(xD) – for instance, as the standard deviation from a Gaussian fit to the distribution of reconstructed over true energies (see e g Ref. [45]). キャリブレーションの文脈やタイプによって、Σ(xD) を定義する方法は様々あり、例えば、ガウスからの標準偏差は真のエネルギー上の再構成された分布に適合する(例 [45] を参照)。 0.68
For our purposes, we can define the point resolution Σ2(xD) as the variance of zT ’s conditioned on xD: 我々の目的のために、点分解能 Σ2(xD) を xD 上で条件付けられた zT の分散として定義することができる。 0.63
Σ2(xD) = Vartest[ZT|XD = xD] Σ2(xD) = Vartest[ZT|XD = xD] 0.47
= Etest[(fMSE(xD) − ZT )2 |XD = xD]. etest[(fmse(xd) − zt )2 |xd = xd] である。 0.74
(24) For the MSE-based calibration, this is simply the variance of the posterior, p(zT|xD). (24) MSE ベースのキャリブレーションでは、これは単に後部の p(zT|xD) の分散である。 0.56
However, for frequentist approaches where the posterior is not well defined, such as the maximum likelihood calibration, the resolution cannot be defined this way and care must be taken. しかし、最大極大校正のような後方が十分に定義されていない頻繁なアプローチでは、分解能はこのような方法で定義できず、注意が必要である。 0.63
For Gaussian noise models p(xD|zT ), the likelihood is symmetric under interchanging the arguments xD and zT , so one can take the resolution to be (applying Eq (20)): Σ2(xD) = Σ2(zT ) = 2. ガウスノイズモデル p(xd|zt ) に対して、xd と zt の引数を交換するときに確率は対称であり、分解能は (eq (20)): σ2(xd) = σ2(zt ) = σ2 となる。
訳抜け防止モード: ガウスノイズモデル p(xD|zT ) に対して、確率は引数 xD と zT の交換の下で対称である。 解決できるのは Eq ( 20 ) ) : Σ2(xD ) = Σ2(zT ) = Σ2(zT ) となる。
0.84
(25) Calibrations do not necessarily improve the resolution and can sometimes make the resolution seem worse. (25) キャリブレーションは必ずしも解像度を改善するものではなく、時には解像度を悪化させることがある。 0.50
For のために 0.51
英語(論文から抽出)日本語訳スコア
example, if a calibration requires multiplying the reconstructed quantity by a fixed number greater than one, then the resolution will grow by the same amount. 例えば、キャリブレーションが再構成された量を1より大きい固定数に乗じる必要がある場合、その解像度は同じ量で増加する。 0.79
It is therefore important to compare resolutions only after calibration. したがって、キャリブレーション後にのみ解像度を比較することが重要である。 0.61
If a calibration incorporates many features that determine the resolution of a given quantity, then the resolution can improve from calibration. キャリブレーションが与えられた量の解像度を決定する多くの特徴を組み込んだ場合、キャリブレーションによってキャリブレーションが改善される。 0.69
For example, suppose the reconstructed value xD is some function of observable quantities ~yD = (yD1, yD2, ..., yDn), i.e. xD = g(~yD). 例えば、再構成された値 xD を可観測量 ~yD = (yD1, yD2, ..., yDn)、すなわち xD = g(~yD) の関数とする。 0.86
For instance, in the context of jet energy calibrations, xD = α η for some constant α and an observable quantity η (e g energy dependence on the pseudorapidity). 例えば、ジェットエネルギーのキャリブレーションの文脈では、ある定数 α に対して xD = α η であり、観測可能な量 η である(例えば、擬レイピディティへのエネルギー依存)。 0.68
If any of the ~yD have a non-trivial probability density, this will be inherited by the reconstructed value xD and thus xD will have a non-zero resolution. もし ~yD のいずれかが非自明な確率密度を持つなら、これは再構成された値 xD によって継承され、したがって xD は非ゼロ分解能を持つ。 0.60
This resolution is completely reducible, however, through a calibration that is ~yD-dependent – that is, a calibration function ˆzT = f0(~yD) rather than ˆzT = f(xD). しかし、この分解能は ~yd 依存の校正によって完全に還元可能であり、すなわち、zt = f(xd) ではなく、校正関数 f0(~yd) である。 0.64
The ability to incorporate many auxiliary features is why machine-learning-bas ed approaches, such as the Gaussian Ansatz [43], have the potential to improve analyses at HEP experiments. 多くの補助機能を組み込む能力は、gaussian ansatz [43]のような機械学習ベースのアプローチがhep実験で解析を改善する可能性がある理由である。 0.79
B. Uncertainty In the machine learning literature, “resolution” would be referred to as a type of “uncertainty”. B.不確かさ 機械学習の文献では、“解決”は“確実性”の一種として言及される。 0.77
Uncertainty in the statistical context refers to the limited information about zT contained in xD. 統計的文脈の不確かさは、xDに含まれるzTに関する限られた情報を指す。 0.66
In the HEP literature, though, we use uncertainty in a different way, to instead refer to the limited information we have about the bias and resolution of a calibration. しかし、HEPの文献では、キャリブレーションのバイアスと解像度に関する限られた情報を参照するために、異なる方法で不確実性を使用する。 0.65
The reason for this difference in nomenclature is that HEP research is based primarily on simulation-based inference, where data are analyzed by comparison to model predictions. この命名法の違いの理由は、HEP研究が主にシミュレーションに基づく推論に基づいているためである。
訳抜け防止モード: この命名法の違いは、hep研究が主にシミュレーションに基づく推論に基づいているためである。 データをモデル予測と比較して分析します。
0.74
(This is the case for the vast majority of analyses at the LHC.) (これは、LHCにおける分析の大部分のケースである。) 0.78
In this context, the word “uncertainty” is reserved to refer to uncertainties on model parameters. この文脈では、"uncertainty"という単語はモデルパラメータの不確実性を参照するために予約される。 0.68
A worse resolution can degrade the statistical precision of a measurement, but if it is well-modeled by the simulation, then there is no associated systematic uncertainty (though there will still be statistical uncertainties). 悪い分解能は測定の統計的精度を低下させることができるが、シミュレーションによって十分にモデル化された場合、関連する体系的不確実性は存在しない(ただし、統計的不確実性は残る)。 0.68
Both simulation-based and data-based calibrations can have associated uncertainties. シミュレーションベースとデータベースの両方のキャリブレーションには不確実性がある。 0.54
For simulation-based calibrations, even if they are prior independent, there can be uncertainties in the detector models themselves. シミュレーションに基づくキャリブレーションでは、先行独立であっても、検出器モデル自体に不確実性が存在する可能性がある。
訳抜け防止モード: シミュレーション - ベースキャリブレーションは、たとえ以前の独立であっても。 検出器のモデル自体に不確実性がある
0.73
For data-based calibrations, there are additional uncertainties associated with the truth-level prior; see Sec. データベースのキャリブレーションには、真理レベルに関連づけられたさらなる不確実性がある。 0.55
II E. One of the goals of data-based calibration is to improve the modeling of the calibration in simulation to match the data. eだ データベースキャリブレーションの目標の一つは、データにマッチするシミュレーションにおけるキャリブレーションのモデリングを改善することである。 0.51
Typically, data-based calibrations are performed in dedicated event samples with well-understood physics processes. 通常、データに基づくキャリブレーションは、十分に理解された物理プロセスを持つ専用のイベントサンプルで実行される。 0.53
The residual uncertainty following the databased calibration is dominated by the modeling of the underlying process. データベースキャリブレーション後の残余不確かさは、基礎プロセスのモデリングによって支配される。 0.75
For example, data-based jet calibrations (called “in situ” calibrations) compare the jet to a well-measured reference object like a Z boson. 例えば、データベースのジェットキャリブレーション("in situ"キャリブレーションと呼ばれる)は、zボソンのようなよく測定された参照オブジェクトと比較する。 0.71
The mo- 6 mentum inbalance between the jet and the Z boson will be due in part to differences in the calibration between data and simulation and in part due to the mismodeling of initial and final state radiation. モ- 6 ジェットとZボソンの間のメンタムの不均衡は、データとシミュレーションのキャリブレーションの違いと、初期および最終状態の放射線の誤モデリングに起因する。 0.54
Uncertainties on the latter are then incorporated into the data-based calibration uncertainty. 後者に関する不確実性は、データに基づく校正の不確実性に組み込まれる。 0.52
In nearly all cases, data-based calibrations are performed independent of the uncertainties, which are computed post-hoc. ほぼ全てのケースにおいて、データに基づく校正は不確実性とは独立に行われ、それらはポストホック後に計算される。 0.50
In the future, these uncertainties may be improved with uncertainty/inferenc e-aware machine learning methods [32, 58–88]. 将来、これらの不確実性は、不確実/推論対応機械学習手法[32, 58–88]によって改善される可能性がある。 0.53
IV. GAUSSIAN EXAMPLES In this section, we demonstrate some of the calibration issues related to bias and prior dependence in a simple Gaussian example. IV。 ガウスの例 本節では,単純なガウスの例で,バイアスと事前依存性に関連するキャリブレーションの問題をいくつか示す。 0.52
We assume that the truth information (the “prior”) is distributed according to a Gaussian distribution with mean µ and variance σ2: 真理情報(「主」)は平均 μ と分散 σ2 を持つガウス分布に従って分布していると仮定する。 0.82
ZT ∼ N (µ, σ2). ZT は N (μ, σ2) である。 0.76
XD|ZT = zT ∼ N (zT , 2). XD|ZT = zT > N (zT , >2) である。 0.67
(26) The detector response is assumed to induce Gaussian smearing centered on the truth input with variance 2: (27) For the simulation-based calibration in Sec. (26) 検出器応答は、 Sec のシミュレーションに基づくキャリブレーションに対して、分散 >2: (27) で入力された真理に基づくガウススミアリングを誘導する。 0.59
IV A, the goal is to learn ZT given XD, assuming perfect knowledge of the detector response. IVA の目標は、検出器応答の完全な知識を前提として、XD の ZT を学習することである。 0.60
For the data-based calibration in Sec. secのデータに基づく校正のために。 0.54
IV B, the goal is to map XD in “simulation” to XD in “data”. IV Bの目的は、XDを“シミュレーション”で“データ”でXDにマッピングすることだ。 0.81
In this latter study, we assume that data and simulation have the same true probability density and differ only in their detector response, sim 6= data – that is, psim “mismodels” pdata. 後者の研究では、データとシミュレーションは同じ確率密度を持ち、その検出器応答、すなわち psim "ミスモデル" pdata でのみ異なると仮定する。 0.60
A. Simulation-based Calibration A. シミュレーションに基づく校正 0.60
If we use the MSE approach in Eq (3), there is a prior dependence in the calibration, which induces bias. eq (3) で mse のアプローチを使う場合、キャリブレーションには事前の依存性があり、バイアスを引き起こす。 0.58
Perhaps counter-intuitively, this bias persists even if the prior is the same as the data density: ptrain = ptest ≡ p, 直観に反するかもしれないが、このバイアスは、前者がデータ密度と同じでも持続する。 0.56
(28) as we now show. (28) ご覧のように 0.34
tributed according to: In the Gaussian case, the reconstructed data is dis- 訳語 配属;配属 ガウス語の場合、再構成されたデータは dis- 0.37
(29) and it is possible to solve Eq (5) analytically, in the asymptotic limit: (29) と、Eq (5) を解析的に、漸近極限で解くことが可能である。 0.81
XD ∼ N (µ, σ2 + 2), xd は n (μ, σ2 + ) である。 0.74
fMSE(xD) = 2µ + σ2xD 2 + σ2 fMSE(xD) = t2μ + σ2xD t2 + σ2 0.38
. (30) For comparison, we can also compute the unbiased maximum likelihood calibration using Eq (12): . (30) 比較のために、eq (12) を用いて偏りのない最大度校正を計算することもできる。 0.51
fMLC(xD) = xD. fMLC(xD) = xD。 0.41
(31) (31) 0.42
英語(論文から抽出)日本語訳スコア
It is also possible to analytically compute the point resolutions, Σ(xD), for both the MSE and MLC fits (Eqs. MSE と MLC の整合性 (Eqs) について、点分解能 Σ(xD) を解析的に計算することもできる。 0.66
(24) and (25), respectively): (24)と(25)である。 0.61
(32) ΣMSE(xD) = ΣMLC(xD) = . (32) σmse(xd) = σmlc(xd) = である。 0.53
σ√ 2 + σ2 , σ√ 2 + σ2 , 0.35
(33) To illustrate this setup, we simulate this scenario numerically for µ = 0, σ = 1, and  = 2. (33) この設定を説明するために、μ = 0, σ = 1, s = 2 のシナリオを数値的にシミュレートする。 0.61
In Fig 1a, we show the simulated data, for which both the true and reconstructed values follow a Gaussian distribution. 図1aでは、真の値と再構成された値の両方がガウス分布に従うシミュレーションデータを示す。 0.79
The first step of a typical calibration is to predict the true zT from the reconstructed xD. 典型的な校正の最初のステップは、再構成された xD から真の zT を予測することである。 0.62
Since we know that the average dependence of the true zT on the reconstructed xD is linear, we perform a first-order polynomial fit to the data using numpy polyfit, which is represented by the blue dashed line in Fig 1a. 再構成された xD に対する真の zT の平均依存が線形であることを知っているので、図 1a の青い破線で表される numpy polyfit を用いてデータに適合する一階多項式を実行する。 0.86
This calibration function is then applied to all reconstructed values: この校正関数は、再構成されたすべての値に適用される。 0.55
+ 1 2 ˆzT (xD) = fMSE(xD) . + 1 2 シュズT (xD) = fMSE(xD) である。 0.59
(34) The resulting calibration curve is presented in blue in Fig. 1b, along with the associated resolution ΣMSE(xD). (34) 得られたキャリブレーション曲線は図1bの青で示され、対応する分解能 ΣMSE(xD) とともに示される。 0.58
For comparison, we perform a maximum likelihood calibration using the Gaussian Ansatz introduced in Ref. 比較のために、refで導入されたガウスアンサッツを用いて最大ラピッド校正を行う。 0.58
[43]: f(x, z) = A(x) +(cid:0)z − B(x)(cid:1) · D(x) [43]: f(x, z) = A(x) +(cid:0)z − B(x)(cid:1) · D(x) 0.41
(cid:0)z − B(x)(cid:1)T · C(x, z) ·(cid:0)z − B(x)(cid:1) , (cid:0)z − B(x)(cid:1)T · C(x, z) ·(cid:0)z − B(x)(cid:1) 0.47
ˆzT (xD) = B(xD), zt (xd) = b(xd) である。 0.75
ΣMLC(xD) = −(cid:2)C(xD, B(xD))(cid:3)−1/2 ΣMLC(xD) = −(cid:2)C(xD, B(xD))(cid:3)−1/2 0.44
(35) where we have dropped the subscripts (xD → x, zT → z) for compactness of notation. (35) 表記のコンパクト性のために、サブスクリプト (xD → x, zT → z) をドロップした。 0.72
As described in Ref. Refに記載されている。 0.63
[43], the calibration function B(x) is obtained by minimizing the DVR loss function from Eq (14), such that after training: (36) (37) For Gaussian noise models, this maximum likelihood estimate is unbiased, as confirmed by the numerical results in Fig 1b. 43]、キャリブレーション関数B(x)は、トレーニング後のEq(14)からDVR損失関数を最小化することにより得られる: (36) (37) ガウス雑音モデルでは、図1bの数値結果で確認されるように、この最大推定値を非バイアス化する。 0.83
We implement the Gaussian Ansatz in Keras [89] with the Tensorflow backend [90]. 我々はKeras[89]にTensorflowバックエンド[90]でGaussian Ansatzを実装した。 0.80
The A network consists of three hidden layers with 16 nodes per layer, with rectified linear unit activations. Aネットワークは3つの隠蔽層で構成され、1層16ノードで、整列された線形ユニットアクティベーションを持つ。 0.68
The B and C networks are each a single node with linear activation. B と C のネットワークは、それぞれ線形活性化を持つ単一ノードである。 0.81
The D network is set to zero by hand. Dネットワークは手動でゼロに設定される。 0.80
Optimization is carried out with Adam [91] over 100 epochs with a batch size of 128. 最適化はAdam[91]が100エポック以上で行われ、バッチサイズは128である。 0.67
As desired, the Gaussian Ansatz yields a calibration that is independent of the prior ptrain(zT ). 願わくば、ガウスアンザッツは、以前のptrain(zT)とは独立なキャリブレーションを与える。 0.41
to get the bias from the MSE calibration approach: ) p(xD|zT ) p(z0 MSE校正法からバイアスを得る: ) p(xD|zT ) p(z0) 0.81
) p(xD) . ) p(xd) である。 0.73
(38) It is possible to solve Eq (38) analytically for the Gaussian setup: (38) ガウス集合に対して解析的に Eq (38) を解くことができる。 0.59
To demonstrate the bias, we plug in Eq (28) into Eq (8) バイアスを示すために、Eq (28) を Eq (8) に差し込む。 0.79
b(zT ) + zT = b(zT ) + zT = 0.42
dxD dz0 T z0 dxD dz0 T z0 0.44
Z T . T T p(xD|z0 (cid:19) Z T . T T p(xD|z0 (cid:19) 0.41
(cid:18) 2 (cid:18)~2 0.34
σ2 + 2 b(zT ) = σ2 + 2 b(zT ) = 0.41
(µ − zT ). (39) (μ − zT)。 (39) 0.40
7 As expected, b(zT ) → 0 as  → 0. 7 予想通り、b(zT ) → 0 は t → 0 である。 0.64
For  > 0, though, there is a non-zero bias with the MSE approach. しかし > 0 の場合、MSE のアプローチには非ゼロバイアスがある。 0.66
The zTbinned resolutions can also be computed using Eqs. ztbinned resolutionsはeqsを使って計算することもできる。 0.75
(22) and (23): ΣMSE(zD) = σ2 ΣMLC(zD) = . (22)・(23) ΣMSE(zD) = σ2 などがある。 0.48
2 + σ2 , 2 + σ2 , 0.44
(40) (41) The fitted biases and resolutions are presented in Fig 2, which exhibits the bias expected from Eq (39). (40) (41) 適合バイアスと解像度は図2に示され、eq(39)から期待されるバイアスを示す。 0.56
This illustrates the large bias introduced by the MSE regression procedure. これは、MSE回帰手順によって導入された大きなバイアスを示している。 0.57
To further highlight the role of prior dependence, we repeat the MSE calibration procedure, where we test multiple values of the prior parameters µ and σ to confirm the predictions in Eq (39). 事前依存の役割をさらに強調するため、mse校正手順を繰り返し、eq (39) における予測を確認するために、先行パラメータ μ と σ の複数の値をテストする。 0.82
As shown in Fig 2a, changes in µ simply shift the calibration up and down, but do not improve the calibration quality across the true values of zT . 図2aに示すように、μの変化は単にキャリブレーションを上下にシフトさせるだけであるが、zTの真の値でキャリブレーションの品質は向上しない。 0.71
As shown in Fig 2b, changes in σ change the slope of the calibration. 図2bに示すように、σの変化はキャリブレーションの傾きを変化させる。 0.79
In the limit σ → ∞, the calibration curve approaches the unbiased curve, as anticipated from Eq. 極限 σ → ∞ では、キャリブレーション曲線は Eq から予想されるような非バイアス曲線に近づく。 0.77
(9). B. Data-based Calibration (9). B.データに基づく校正 0.51
As discussed in Sec. secで議論されたように。 0.36
II E, we are unaware of any priorindependent data-based calibration. iie 事前の独立データに基づく校正には気付いていない。 0.57
To highlight this challenge, we study the OT-based technique introduced in Ref. この課題を浮き彫りにするために、Refで導入されたOTベースの技術について研究する。 0.40
[42] and mentioned in Sec. [42] と Sec に記載されている。 0.70
II D. In our Gaussian example, the goal is to calibrate a “simulation” sample with (µsim., σsim., sim.) to match a “data” sample with (µdata, σdata, data). II ガウスの例では、"simulation" サンプルを (μsim., σsim., σsim.) で校正し、"data" サンプルを (μdata, σdata, shdata) と一致させることが目的である。 0.78
For simplicity, we assume that the true spectra (determined by (µ, σ)) are the same in data and in simulation, such that there is no systematic uncertainty in the calibration (see Sec. III B). 単純さのために、真のスペクトル( (μ, σ) によって決定される)はデータとシミュレーションにおいて同じであり、キャリブレーションに系統的不確実性がないと仮定する(sec. iii b を参照)。 0.80
Only , the parameter governing the detector response, is different between simulation and data – the simulation mismodels the real detector. 検出器応答を制御しているパラメータは、シミュレーションとデータによって異なるが、シミュレーションは実際の検出器を誤モデリングする。 0.76
To highlight the issue of prior-dependence, we consider a “training” set with one value of µtrain = 0 and a “testing” set with a different value of µtest, with a shared value of σ. 先行依存性の問題を強調するために、μtrain = 0 の1つの値を持つ「トレーニング」セットと、μtest の異なる値を持つ「テスト」セットと、σ の共有値を考える。 0.76
The calibration will be derived on the training set and deployed on the testing set. キャリブレーションはトレーニングセットに基づいて導出され、テストセットにデプロイされる。 0.79
Again for simplicity, we assume that detector effects (determined by ) are the same in both the train and test set. 単純性に関しても、列車とテストセットの両方で検出器効果が同じであると仮定する。 0.66
The one-dimensional OT map h from one Gaussian A ガウス A の 1 次元 OT 写像 h について 0.73
to another Gaussian B can be computed analytically: 別のガウス B に対して解析的に計算できる。 0.61
hA→B(x) = x − µA hA→B(x) = x − μA 0.44
σA · σB + µB, σA · σb + μb である。 0.50
(42) where the mean and standard deviation of sample i are µi and σi, respectively. (42) サンプル i の平均偏差と標準偏差はそれぞれ μi と σi である。 0.63
This equation can be derived following Eq (17), by computing cumulative distribution function (CDF) of sample A with the inverse CDF of sample B. この方程式は、サンプルAの累積分布関数 (CDF) をサンプルBの逆CDFで計算することにより、Eq (17) に従って導出することができる。 0.80
英語(論文から抽出)日本語訳スコア
8 (a) (b) FIG. 1. 8 (a) (b) FIG.1。 0.50
(a) 2D Histogram of the reconstructed value xD distribution versus the true value zT distribution, in the Gaussian example with µ = 0, σ = 1, and  = 2. The dashed line represents a linear fit to the data points. (a) 再構成された値 xD の分布と真の値 zT の分布の2次元ヒストグラムは、μ = 0, σ = 1 と s = 2 のガウスの例において、データの点に整合した直線を表す。 0.88
(b) For test values of xD, the vertical axis is the calibrated target value ˆzT (xD). (b)xDの試験値に対して、垂直軸は校正された目標値(zT(xD))である。 0.79
The blue dots are the results from a numerical MSE fit fMSE(xD), and the error bars correspond to the numerical point resolution ΣMSE(xD), with the analytic prediction in the red dotted line. 青色ドットは数値mseフィットfmse(xd)の結果であり、誤差バーは赤点線における解析予測と共に数値点分解能σmse(xd)に対応する。 0.66
For comparison, the Gaussian Ansatz calibration is indicated by the red points fMLC(xD), with the error bars indicating the point resolution ΣMLC(xD). 比較のために、ガウスアン・アンザッツ校正は赤点 fMLC(xD) で示され、点分解能 ΣMLC(xD) を示す誤差バーが示される。 0.74
For both fits, the colored lines and bands are the analytically expected results for the fits and resolutions, respectively. どちらも、色付きの線とバンドは、それぞれ適合度と分解能について分析的に予測された結果である。 0.59
(a) (b) FIG. 2. (a) (b) FIG.2。 0.54
The same MSE results as Fig 1b, but plotted in bins of true zT rather than xD. MSE は Fig 1b と同じであるが、xD ではなく真の zT のビンでプロットされる。 0.72
Points correspond to numerical fit results with associated resolution ΣMSE(zT ), while the dashed lines and bands correspond to analytic results. 点が対応する分解能 ΣMSE(zT) に対応するのに対し、破線とバンドは解析結果に対応する。 0.74
Multiple values of the prior parameters 事前パラメータの複数の値 0.78
(a) µ and (b) σ are shown to illustrate the prior dependence of the bias. (a) μ および (b) σ はバイアスの事前の依存性を示す。 0.73
Though not shown, we verified that the Gaussian Ansatz gives results consistent with the unbiased calibration in dashed red. 示されていないが, ガウスアンサッツは, 脱落した赤の非偏光キャリブレーションと一致した結果を与えることを確認した。 0.57
42024Measured XD42024True ZT(,,)=(0,1,2)Simulation-Ba sed Gaussian ExampleMSE Fit42024Measured XD42024Calibrated ZT(,,)=(0,1,2)Simulation-Ba sed Gaussian ExampleAnalytic MSEAnalytic MLCFit MSEGaussian Ansatz42024True ZT42024Calibrated ZT(,)=(1,2)Simulation-Base d Gaussian ExampleUnbiased=2.0=1.0=0.0=1.0=2.042024True ZT42024Calibrated ZT(,)=(0,2)Simulation-Base d Gaussian ExampleUnbiased=0.0=0.5=1.0=1.5=2.0 42024Measured XD42024True ZT(,,)=(0,1,2)Simulation-ba sed Gaussian ExampleMSE Fit42024Measured XD42024Calibrated ZT(,,)=(0,1,2)Simulation-ba sed Gaussian ExampleAnalytic MSEAnalytic MLCFit MSEGaussian Ansatz42024True ZT42024Calibrated ZT(,)=(1,2)Simulation-base d Gausian ExampleUnbiased=2.0=1.0=1.0=2.0=2.0=2.0=2.0(,02)Simulation-b ased Gaused =0.00=1.5(,)ZT42024Calibra ted ZT(,) 0.30
英語(論文から抽出)日本語訳スコア
9 FIG. 3. Histograms of the raw simulation, calibrated simulation, and data for 9 図3。 生シミュレーションのヒストグラム、校正シミュレーションおよびデータ 0.53
(a) the training set and (a)訓練セット及び 0.68
(b) the test set, the Gaussian example of data-based calibration. b) データベースのキャリブレーションのガウス的な例であるテストセット。 0.64
The calibration function for the test set is used in both figures. テストセットのキャリブレーション関数は、両方の数字で使用される。 0.83
(a) (b) 10.07.55.02.50.02.55 .07.510.0XD0.000.050 .100.150.200.25p(xD) data=1data=1data=0sim. (a) (b) 10.07.55.02.50.02.55 .07.510.0X0.000.050. 100.150.200.25p(xD)d ata=1data=1data=0sim 0.31
=1sim. =2sim. 1sim。 2sim。 0.56
=0Data-based Gaussian ExampleTrainingSimul ationCalibrated Sim.Data10.07.55.02. 50.02.55.07.510.0XD0 .000.050.100.150.200 .25p(xD)data=1data=1data=2sim. =0Data-based Gaussian ExampleTrainingCalib rated Sim.Data10.07.55.02. 50.02.55.07.510.0XD0 .000.050.100.150.200 .25p(xD)data=1data=1data=2sim 0.10
=1sim. =2sim. 1sim。 2sim。 0.56
=2Data-based Gaussian ExampleTestingSimula tionCalibrated Sim.Data 2Data-based Gaussian ExampleTestingSimula tionCalibrated Sim.Data 0.15
英語(論文から抽出)日本語訳スコア
10 FIG. 4. The data-driven calibration functions corresponding to Fig 3. 10 図4。 データ駆動型校正機能はfig3に対応する。 0.55
The blue points correspond to the calibration function htrain derived from the training set and the red points correspond to the ideal calibration htest one would derive from the test set. 青い点はトレーニングセットから派生したキャリブレーション関数htrainに対応し、赤い点はテストセットから派生した理想的なキャリブレーションhtestに対応する。 0.74
FIG. 5. The mjj distributions for QCD (blue) and BSM (red) events in the fast and full simulation. 図5。 qcd (blue) と bsm (red) のイベントに対するmjj分布は、高速で完全なシミュレーションである。 0.71
The shaded histograms correspond to the zT = mtrue truth-level distributions, whereas the light triangles and dark circles correspond to xD = mreco for the fast (Delphes) and slow (Geant4) distributions respectively. 日陰ヒストグラムはzT = mtrueの真相分布に対応し、光の三角形と暗い円はそれぞれ高速(デルフェ)と遅い(Geant4)の分布に対してxD = mrecoに対応する。 0.82
jj jj For the training set with µtrain = 0, we have jj jj μtrain = 0 のトレーニングセットについては、 0.53
x (43) data x (43) データ 0.55
sim htrain(x) = シム htrain(x) = 0.43
pσ2 + 2 pσ2 + 2 σ2 + σ2 + σ2 である。 0.45
≡ α x. The test set only differs in the value of µtest, so the correct calibration function should be: α x である。 テストセットは μtest の値のみが異なるため、正しいキャリブレーション関数は次のようになる。 0.82
htest(x) = α(x − µtest) + µtest = αx + µtest(1 − α). htest(x) = α(x − μtest) + μtest = αx + μtest(1 − α) である。 0.92
(44) As long as α 6= 1, then htrain 6= htest and so the calibration is not universal. (44) α 6 = 1 であれば、htrain 6 = htest であり、キャリブレーションは普遍的ではない。 0.63
A numerical demonstration of this bias is presented in Fig. 3, where histograms of the data and simulation are presented along with the calibrated result. このバイアスの数値的な実証が図3で示され、データとシミュレーションのヒストグラムが校正された結果と共に提示される。 0.84
In Fig 3a, we see the calibration derived in the training sample, where by construction, the calibrated simulation matches the data. 図3aでは、トレーニングサンプルから得られた校正結果を見て、構成により、校正されたシミュレーションがデータにマッチする。
訳抜け防止モード: 図3aでは、トレーニングサンプルから得られたキャリブレーションが見られます。 校正されたシミュレーションはデータと一致します
0.81
Since the truth distribution is different in the test set, however, the training calibration applied in the test set is biased, as shown in Fig 3b. しかし、テストセットでは真相分布が異なるため、図3bに示すように、テストセットに適用されるトレーニング校正がバイアスとなる。 0.75
The actual calibration function is plotted in Fig 4 and compared to the analytic expectation from Eqs. 実際のキャリブレーション関数は図4でプロットされ、Eqsの分析期待値と比較される。 0.82
(44) and (43). (44)及び(43) 0.69
The fact that the calibration derived on the train set is not the same as the calibration derived on the test set shows that the calibration derived in one and applied to the other will lead to a residual bias. 試験セットから導かれる校正が試験セットから導かれる校正と同一ではないという事実は、一方から導出され他方に適用された校正が残留バイアスをもたらすことを示している。 0.77
V. CALIBRATING JET ENERGY RESPONSE v. ジェットエネルギー応答の校正 0.59
Jets are ubiquitous at the LHC and their calibration is an essential input to a majority of physics analyses performed by ATLAS and CMS. ジェットはLHCにおいてユビキタスであり、そのキャリブレーションはATLASとCMSが行った物理学分析の大多数に必須の入力である。 0.68
In this section, we consider a simplified version of simulation-based and data-based jet energy calibrations. 本稿では,シミュレーションベースおよびデータベースジェットエネルギーキャリブレーションの簡易化について考察する。 0.78
To illustrate the impact of the prior dependence, we use a realistic and also extreme example where calibrations are derived in a sample of generic quark and gluon jets and then applied to a test sample of jets from the decay of a heavy new resonance. 事前依存性の影響を説明するために、ジェネリッククォークとグルーオンジェットのサンプルからキャリブレーションが導出され、重いニュー共鳴の崩壊からジェットのテストサンプルに適用される現実的な極端な例を用いる。 0.69
To further simplify the problem, we consider a calibration of the invariant mass mjj of the leading two jets. この問題をさらに単純化するために, 2つの噴流の不変質量mjjのキャリブレーションについて検討する。 0.70
In practice, jet energy calibrations are derived for individual jets, but this requires at least including calibrating the jet rapidity in addition to the jet energy. 実際には、ジェットエネルギーのキャリブレーションは個々のジェットに対して導かれるが、少なくともジェットエネルギーに加えてジェットの速さのキャリブレーションを含む必要がある。 0.63
We keep the problem one-dimensional in order to ensure the problem is easy to visualize and to mitigate the dependence on features that are not explicitly modeled. 問題を可視化しやすくし、明示的にモデル化されていない機能への依存を軽減するため、我々は問題を一次元に保ちます。 0.72
For a high-dimensional study of jet energy calibrations in a prior-independent way, see Ref. ジェットエネルギーの事前独立なキャリブレーションの高次元研究については、refを参照。 0.66
[43]. A. Datasets [43]. A.データセット 0.47
Our study is based on generic dijet production in quantum chromodynamics (QCD). 本研究は量子色力学(QCD)におけるジェネリックジジェット生成に基づく。 0.73
For these studies will consider two different datasets to demonstrate simulationbased and data-based jet energy calibrations. これらの研究のために、シミュレーションベースとデータベースジェットエネルギーキャリブレーションを示す2つの異なるデータセットを検討する。
訳抜け防止モード: これらの研究は 2つの異なるデータセットを シミュレーションベースおよびデータベースのジェットエネルギー校正を示す。
0.72
The first dataset is made with a full detector simulation. 最初のデータセットは完全な検出器シミュレーションで作られる。 0.83
The full 6420246Measured XD6420246Calibrated XD=h(XD)data=1data=1data=0sim. 全体 6420246 XD6420246Calibrated XD=h(XD)data=1data=1data=0sim。 0.33
=1sim. =2sim. 1sim。 2sim。 0.56
=0Data-Based Gaussian ExampleTrain Set CalibrationTest Set Calibration1-1180020 00220024002600280030 00mjj [GeV]105104103102101p(mjj ) [GeV1]Dijet DistributionsQCD TruthQCD DelphesQCD GeantBSM TruthBSM DelphesQCD Geant =0Data-based Gaussian ExampleTrain Set CalibrationTest Set Calibration1-1180020 00220024002600280030 00mjj [GeV]1051041032101p(mjj) [GeV1]Dijet DistributionsQCD TruthQCD DelphesQCD GeantBSM TruthBSM DelphesQCD GeantBSM TruphesQCD Geant 0.36
英語(論文から抽出)日本語訳スコア
jj jj simulation sample uses Pythia 6.426 [92] with the Z2 tune [93] and interfaced with a Geant4-based [94–96] full simulation of the CMS experiment [97]. jj jj シミュレーションサンプルは、Z2チューン[93]のピチア6.426[92]を使用し、CMS実験[97]のGeant4ベースの[94-96]フルシミュレーションでインターフェースされている。 0.52
In simulationbased calibration, our goal will be to reconstruct the truth-level zT = mtrue from the detector-level xD = mreco . シミュレーションに基づくキャリブレーションでは、真理レベル zT = mtrue を検出器レベル xD = mreco から再構成する。 0.73
The second dataset is constructed with a fast detector simulation. 第2のデータセットは高速検出器シミュレーションによって構築される。 0.71
The fast simulation uses Pythia 8.219 [98] interfaced with Delphes 3.4.1 [99–101] using the default CMS detector card. 高速シミュレーションでは、pythia 8.219 [98] とdelphes 3.4.1 [99–101] をデフォルトのcms検出器カードでインターフェースする。 0.64
In data-based calibration, our goal will be to match this fast simulation to “data”, which will be represented by the full simulation. データベースのキャリブレーションでは、この高速なシミュレーションを“データ”にマッチさせることが目標です。
訳抜け防止モード: データベースのキャリブレーションでは、私たちの目標は この高速なシミュレーションを“データ”にマッチさせ、完全なシミュレーションで表現する。
0.79
The full simulation sample comes from the CMS Open Data Portal [102–104] and processed into an MIT Open Data format [105–108]. 完全なシミュレーションサンプルは、CMS Open Data Portal [102–104] から得られ、MIT Open Dataフォーマット [105–108] に処理されます。 0.82
The fast simulation sample is available at Ref. 高速シミュレーションサンプルはRefで公開されている。 0.72
[109, 110]. [109, 110]. 0.36
For each dataset, we have access to the parton-level hard-scattering scale ˆpT from Pythia, which is in general different from the jet-level transverse momentum pT we are interested in studying. 各データセットに対して、Pythia からパルトンレベルのハード散乱スケール (Parton-level hard-scattering scale) の ppT にアクセスすることができ、これは一般的に、研究に興味があるジェットレベルの横運動量 pT と異なる。 0.55
To avoid any issues related to the trigger, we focus on events where ˆpT > 1 TeV. トリガーに関連する問題を回避するために、 spt > 1 tev のイベントに焦点を当てます。 0.75
Particles (at truth level) or particle flow candidates (at reconstructed level) are used as inputs to jet clustering, implemented using FastJet 3.2.1 [111, 112] and the antikt algorithm [113] with radius parameter R = 0.5. ジェットクラスタリングの入力として粒子(真理レベル)または粒子フロー候補(再構成レベル)を用い、FastJet 3.2.1[111,112]と半径パラメータR=0.5のアンチケットアルゴリズム[113]を用いて実装する。 0.80
No calibrations are applied to the reconstructed jets. 復元されたジェットにはキャリブレーションは適用されない。 0.57
In order to emulate two different physics processes while controlling for all hidden variables, we consider dijet events with two different sets of event weights. すべての隠れた変数を制御しながら、2つの異なる物理過程をエミュレートするために、2つの異なるイベント重みを持つディジェットイベントを考える。 0.72
This will allow us to study the prior-dependent effects of each calibration. これにより、各キャリブレーションの事前依存効果を研究することができる。 0.71
• QCD. This set of weights {wi} comes from the original Pythia event generation. ・QCD。 この重みの組 {wi} は、元のpythiaイベント生成から来ている。 0.68
The resulting spectra are steeply falling in the invariant mass of the two jets, mjj. 得られたスペクトルは、2つのジェットの不変質量 mjj に急降下している。 0.76
• BSM. To emulate a narrow dijet resonance, we ・BSM。 狭いディジェット共鳴をエミュレートするために 0.60
" consider a second set of weights given by jj,i − µ)2 −(mtrue 2σ2 「jj,i − μ)2 −(mtrue 2σ2 で与えられる重みの第二集合を考える。 0.82
) ∝ 1 w(mtrue ) ∝ 1 w(mtrue) 0.44
# exp jj,i # exp jj.i. 0.41
σwi , (45) σwi , (45) 0.41
where µ = 2.8 TeV and σ = 10 GeV. μ = 2.8 tev、σ = 10 gev である。 0.79
Note that the weighting is applied using the true mjj. 重み付けは真 mjj を用いて適用されることに注意。 0.69
The mjj distributions as described above are shown in Fig. 5. 上記のようなmjj分布を図5に示す。 0.65
In the full simulation, one can see a difference between mtrue for both QCD and BSM, necessitating a simulation-based calibration. 完全なシミュレーションでは、qcdとbsmの両方でmtrueの違いが見え、シミュレーションに基づくキャリブレーションが必要となる。 0.84
Additionally, the mreco distribution is significantly different between the full and fast simulations, which to correct requires a data-based calibration. さらに、mreco分布はフルシミュレーションと高速シミュレーションで大きく異なり、補正にはデータに基づくキャリブレーションが必要となる。 0.78
and mreco For all following results, half of the examples are used そしてmrecoは 以下のすべての結果に対して、サンプルの半分が使用される。 0.65
jj jj jj for training and half are used for testing. jj jj jj トレーニングには半分、テストには半分が使われます 0.48
B. Simulation-based Calibration B. シミュレーションに基づく校正 0.61
The goal for the simulation-based calibration is to learn in シミュレーションに基づく校正の目標は、学習することである。 0.73
a function to predict zT = mtrue zT = mtrue を予測する関数 0.80
from xD = mreco xd = mreco から 0.75
jj jj 11 the full simulation. jj jj 11 完全なシミュレーション。 0.51
In contrast to the Gaussian example in Sec. Sec のガウス例とは対照的である。 0.68
IV A, we do not know the functional form of the calibration. iv. a. キャリブレーションの機能形式が分からない。 0.53
Therefore, we use a neural network to provide a flexible parameterization of the calibration and numerically minimize the MSE loss. そこで,ニューラルネットワークを用いてキャリブレーションの柔軟なパラメータ化を行い,MSE損失を数値的に最小化する。 0.83
The neural network has three hidden layers with 50 nodes per layer, with the rectified linear unit activation for intermediate layers and a linear activation for the output. ニューラルネットワークは、中間層に対する整列線形単位活性化と出力に対する線形活性化の3つの隠蔽層と、50層毎の50ノードを有する。 0.85
The network is implemented in Keras with the Tensorflow backend and optimized with Adam using a batch size of 1000 and 50 epochs. ネットワークはTensorflowバックエンドでKerasで実装され、1000と50のバッチサイズを使用してAdamで最適化されている。 0.70
Training is performed over the QCD sample to obtain the calibration function. 校正機能を得るために、QCDサンプル上でトレーニングを行う。 0.73
The learned calibration function is then applied to both the QCD and BSM test samples 学習校正関数はQCDおよびBSMテストサンプルの両方に適用される 0.72
The result of MSE calibration is shown in Fig 6a. MSE校正の結果を図6aに示す。 0.68
Prior to any calibration, the detector response is about 5% low in both the QCD and BSM test samples. キャリブレーションの前には、検出器の応答はQCDとBSMの両方のテストサンプルで約5%低かった。 0.77
After calibration, the mean is nearly unity for the QCD sample, albeit with a large width – that is to say, the average bias is close to zero over the prior, but the average resolution is large. 校正後、qcdサンプルの平均は幅が大きいがほぼ一様であり、つまり、平均バイアスは前よりもゼロに近いが、平均分解能は大きい。
訳抜け防止モード: 校正後、qcdサンプルの平均はほぼ一様である。 幅が大きいが... つまり、 平均バイアスは前よりもゼロに近い。 しかし、平均的な解像度は大きい。
0.65
For the BSM sample, though, the calibrated mean is far from unity, demonstrating the bias and prior dependence of the MSE calibration. しかし、BSMのサンプルでは、校正平均は単調とは程遠いため、MSE校正の偏りと事前の依存性が示される。 0.65
The MSE-based calibration obtained from the QCD fit is not universal, and gives poor results when applied to the BSM sample.8 QCDフィッティングから得られるMSEベースの校正は普遍的ではなく、BSMサンプル8に適用した場合は結果が悪い。 0.71
For comparison, in Fig 6b we show results from a maximum likelihood-based calibration trained on the QCD sample, using the Gaussian Ansatz in Eq (35). 比較として、図6bでは、Eq(35)のガウスアンザッツを用いて、QCDサンプルでトレーニングされた最大極大値に基づく校正結果を示す。 0.70
The A, B, C, and D networks of the Gaussian Ansatz each consist of three hidden layers with 32 nodes per layer, with the same activation functions, batch size, and epochs as in the Gaussian example. ガウスのアンサッツのa、b、c、dのネットワークはそれぞれ、ガウスの例のように活性化関数、バッチサイズ、エポックを持つ32個のノードを持つ3つの隠れた層で構成されている。 0.69
The calibration function trained on the QCD sample can be used for the BSM sample, and as Fig 6b shows, the calibration is indeed universal and unbiased, as expected. QCDサンプルでトレーニングされた校正関数はBSMサンプルに使用することができ、図6bが示すように、キャリブレーションは予想通り普遍的で偏りがない。 0.80
C. Data-based Calibration C. データに基づく校正 0.59
jj The goal for the data-based calibration task is to “cor), given by the fast simulation (Delphes), rect” psim(mreco ), given by to the observed data distribution pdata(mreco the full simulation (Geant4). jj データベースのキャリブレーションタスクの目標は、観測されたデータ分散pdata(mreco the full Simulation(Geant4)に与えられる高速なシミュレーション(Delphes, rect)psim(mreco )によって与えられる「正しい」ことである。 0.64
We now apply the same procedure described in Sec. 現在、secで説明されているのと同じ手順を適用する。 0.50
IV B to the dijet example. IV B を例に挙げる。 0.76
An OT-based calibration is derived using QCD jets, to align the fast simulation Delphes) sample with the full simulation Geant4 sample. OTベースのキャリブレーションはQCDジェットを用いて導出され、高速シミュレーションDelphes)サンプルとフルシミュレーションGeant4サンプルを整列させる。 0.79
The calibration function, given by the optimal transport map (Eq. キャリブレーション関数は最適輸送写像(Eq)によって与えられる。 0.75
(17)), can be computed numerically by sorting and integrating the weighted data points to build the cumulative distribution 重み付きデータポイントのソートと統合によって累積分布を構築することにより、数値的に計算できる(17) 0.81
jj 8 The converse is also true – attempting to use a calibration fitted on the BSM sample will lead to bias on the QCD sample, or any other BSM sample for that matter. jj 8 逆もまた真であり、BSMサンプルに校正を施そうとすると、QCDサンプルや他のBSMサンプルに偏りが生じる。
訳抜け防止モード: jj 8 逆もまた真である。 BSMサンプルに搭載されたキャリブレーションを使用しようとする QCDサンプルや他のBSMサンプルに偏りが生じます。
0.55
These non-universal fits lead to mass sculpting, in which a fit depends strongly on the mass point used in training. これらの非普遍的な適合は、訓練で使用される質量点に強く依存する大量彫刻につながる。 0.73
See e g [114] for discussions on sculpting and mass decorrelation. 彫刻と大量デコレーションに関する議論についてはe g[114]を参照。 0.64
英語(論文から抽出)日本語訳スコア
12 FIG. 6. The reconstructed mjj divided by the true mjj for the QCD and BSM samples, using 12 第6話。 QCDおよびBSM試料の真のmjjで分割した再構成mjj 0.48
(a) the MSE-based approach and (a)mseに基づくアプローチと 0.81
(b) the maximum likelihood approach with the Gaussian Ansatz. b) ガウスアンサッツの最大可能性アプローチ。 0.47
Shown are results with and without the simulation-based calibration applied. シミュレーションに基づく校正が適用されていない場合の結果を示す。 0.62
(a) (b) FIG. 7. (a) (b) 第7話。 0.42
The reconstructed mjj for (a) QCD and 再建されたmjj (a)QCDと 0.56
(b) BSM events in the fast and full simulation, with and without the data-based OT calibration. b) 高速かつ完全なシミュレーションにおけるBSMイベントは、データベースのOTキャリブレーションが不要である。 0.77
The calibration is performed on the QCD sample, which closes, and the same calibration is applied to the BSM sample. クローズするQCD試料にキャリブレーションを行い、BSM試料に同じキャリブレーションを適用する。
訳抜け防止モード: 校正は、クローズするqcdサンプル上で実行される。 同じキャリブレーションがbsmサンプルにも適用されます。
0.70
Note that for the BSM sample, the ratio plot is in log-scale, indicating a very large bias. BSMサンプルの場合、比プロットはログスケールであり、非常に大きなバイアスを示すことに注意されたい。 0.67
(a) (b) functions. (a) (b) 機能。 0.52
On the QCD sample, this calibration closes by construction. QCDサンプルでは、このキャリブレーションは構築によって閉じる。 0.77
In particular, as shown in Fig 7a, the blue dashed line in the ratio plot fluctuates around unity, with deviations due to statistical fluctuations that differ between the two halves of the event samples. 特に、図7aで示されるように、比プロットのブルーダッシュ線は、イベントサンプルの2つのハーフ間で異なる統計的変動による偏差によって、一意の周りで変動する。 0.65
When this calibration is applied to the BSM events, この校正がBSMイベントに適用されるとき。 0.73
however, the calibration overshoots, as shown with the red dashed line in the ratio plot in Fig 7b. しかし、キャリブレーションオーバーシュートは、図7bの比プロットの赤い破線で示されているように、オーバーシュートする。 0.57
While the resulting dashed distribution agrees better with the data histogram in dark red than does the fast sim histogram in light red, the overall agreement is still rather poor. 得られた破断分布は、暗赤色のデータヒストグラムと、明るい赤色の高速シミュレートヒストグラムとよりよく一致するが、全体的な合意はいまだに貧弱である。 0.73
This again highlights the issue of prior-dependence in これはまた、事前依存の問題を強調します。 0.49
0.80.91.01.11.21.31. 4reconstructed / true mjj0.02.55.07.510.01 2.515.017.520.0Proba bility DensitySimulation-Ba sed Dijets ExampleQCD, GeantQCD, MSE-CalibratedBSM, GeantBSM, MSE-Calibrated0.80.9 1.01.11.21.31.4recon structed / true mjj0.02.55.07.510.01 2.515.017.520.0Proba bility DensitySimulation-Ba sed Dijets ExampleQCD, GeantQCD, GA-CalibratedBSM, GeantBSM, GA-Calibrated1800200 02200240026002800300 03200340010610510410 3102101p(mjj) [GeV1]Data-Based Dijet ExampleQCD, DelphesQCD, GeantQCD, Delphes + OT2000250030003500mj j [GeV]0.51.01.51/Target180 02000220024002600280 03000320034001061051 04103102101p(mjj) [GeV1]Data-Based Dijet ExampleBSM, DelphesBSM, GeantBSM, Delphes + OT2000250030003500mj j [GeV]1011011/Target 0.80.91.01.11.21.31. 4reconstructed / true mjj0.02.55.07.510.01 2.515.017.520.0Proba bility DensitySimulation-Ba sed Dijets ExampleQCD, GeantQCD, MSE-CalibratedBSM, GeantBSM, MSE-Calibrated0.80.9 1.01.11.21.31.4recon structed / true mjj0.02.55.07.510.01 2.515.017.520.0Proba bility DensitySimulation-Ba sed Dijets ExampleQCD, GeantQCD, GA-CalibratedBSM, GeantBSM, GA-Calibrated1800200 02200240026002800300 03200340010610510410 3102101p(mjj) [GeV1]Data-Based Dijet ExampleQCD, DelphesQCD, GeantQCD, Delphes + OT2000250030003500mj j [GeV]0.51.01.51/Target180 02000220024002600280 03000320034001061051 04103102101p(mjj) [GeV1]Data-Based Dijet ExampleBSM, DelphesBSM, GeantBSM, Delphes + OT2000250030003500mj j [GeV]1011011/Target 0.18
英語(論文から抽出)日本語訳スコア
data-based calibrations. データに基づく校正。 0.59
VI. CONCLUSIONS VI。 コンキュレーション 0.65
In this paper, we explored the prior dependence of machine learning-based calibration techniques. 本稿では,機械学習に基づくキャリブレーション手法の事前依存性について検討した。 0.71
There is a growing number of machine learning proposals for simulation-based and data-based calibration and in nearly all cases, there is a prior dependence. シミュレーションベースのキャリブレーションとデータベースのキャリブレーションには、機械学習の提案が増えている。
訳抜け防止モード: シミュレーション - ベースとデータ - ベースのキャリブレーションのための機械学習の提案が増えている。 ほとんど全てのケースに 事前依存があります
0.73
We highlighted the resulting calibration bias in a synthetic Gaussian example and a more realistic particle physics example of dijet production at the LHC. 合成ガウスの例で得られたキャリブレーションバイアスと、LHCにおけるジジェット生成のより現実的な粒子物理学の例を強調した。 0.67
In the simulation-based calibration case, most proposals learn a truth target from detector-level observables using loss functions like the MSE. シミュレーションに基づくキャリブレーションの場合、ほとんどの提案はmseのような損失関数を用いて検出器レベルの観測器から真理目標を学ぶ。 0.66
A neural network trained in this way will learn the average true value given the detector-level inputs, which depends on the spectrum of truth values. このように訓練されたニューラルネットワークは、検出器レベルの入力から平均真の値を学習し、真理値のスペクトルに依存する。 0.81
However, we have shown that this will yield a calibration that lacks the critical properties of universality and closure. しかし、これは普遍性と閉包の重要な性質を欠いた校正をもたらすことを示した。
訳抜け防止モード: しかし 私たちは これにより、普遍性と閉包の重要な特性を欠いた校正が得られる。
0.70
There are fewer proposals for machine learning databased calibrations, but we studied one recent idea based on OT and showed its prior dependence. 機械学習のデータベースキャリブレーションに関する提案は少ないが、otに基づく最近のアイデアを1つ調査し、その事前依存性を示した。 0.65
While we focused on one-dimensional examples, the prior dependence is a generic feature of these approaches. 一次元の例に注目しながら、先行依存はこれらのアプローチの一般的な特徴である。 0.66
Going to higher dimensions may even exacerbate the issue since it is harder to visualize and control prior differences in many dimensions. 高次元に進むと、多くの次元で先行する違いを可視化し制御することが困難になるため、問題を悪化させる可能性がある。
訳抜け防止モード: より高い次元で それ以来 問題を悪化させるかもしれない 多くの次元で先行する差異を可視化し制御することは困難である。
0.61
New learning approaches are required to ensure that machine learning-based calibrations are universal. 機械学習に基づくキャリブレーションが普遍的であることを保証するには、新たな学習アプローチが必要だ。 0.57
For simulation-based calibration, the ATLAS collaboration has proposed a prior-independent method called generalized numerical inversion [23, 24]. シミュレーションに基づくキャリブレーションのために、ATLASコラボレーションは一般化数値反転[23, 24]と呼ばれる事前非依存の手法を提案した。 0.67
While prior independent, this technique is typically biased and does not scale well to many dimensions. 従来の独立性はあるものの、この手法は一般に偏りがあり、多くの次元にうまくスケールしない。 0.54
We proposed a new approach based on maximum likelihood estimation in Ref. 我々はRefの最大推定値に基づく新しい手法を提案した。 0.76
[43], based on parametrizing the log-likelihood with a Gaussian Ansatz. [43] ガウスアンザッツによる対数様態のパラメトリゼーションに基づく。 0.57
Maximum-likelihood-b ased approaches are prior independent by construction and are well-motivated statistically. 最大様相に基づくアプローチは、建設によって事前に独立であり、統計的に十分に動機づけられている。 0.37
13 Parametrizing the maximum likelihood estimator with neural networks requires a different learning paradigm than current approaches, but it extends well to many dimensions. 13 最大確率推定器をニューラルネットワークでパラメータ化するには、現在のアプローチとは異なる学習パラダイムが必要となるが、多くの次元に拡張される。 0.73
To our knowledge, there are currently no prior-independent data-based calibration approaches. 私たちの知る限り、現在、事前非依存のデータベースのキャリブレーションアプローチはありません。 0.46
To make the most use of the complex data from the LHC and other HEP experiments, it is essential to use all of the available information for object calibration. LHCや他のHEP実験から得られた複雑なデータを最大限活用するためには、利用可能な全ての情報をオブジェクトキャリブレーションに利用することが不可欠である。 0.79
This will require modern machine learning to account for all of the subtle correlations in high dimensions. これは、高次元における微妙な相関をすべて考慮し、現代的な機械学習を必要とする。 0.62
It is important, however, that we construct these machine learning calibration functions in a way that integrates all of the features of classical calibration methods. しかし,これらの機械学習キャリブレーション機能を,古典的なキャリブレーション手法のすべての特徴を統合する形で構築することが重要である。 0.83
We highlighted prior independence in this paper as a cornerstone of calibration. 本稿では,キャリブレーションの基礎として,先行的独立性を強調した。 0.56
In the future, innovations that incorporates knowledge of the detector response or physics symmetries may further enhance the precision and accuracy of machine learning calibrations. 将来、検出器応答や物理対称性の知識を取り入れたイノベーションは、機械学習の校正の精度と精度をさらに高める可能性がある。
訳抜け防止モード: 将来 イノベーションは 検出器応答または物理対称性の知識を取り入れる 機械学習のキャリブレーションの精度と精度をさらに向上させることができる。
0.87
CODE AND DATA for コード及びデータ ですから 0.60
The code this paper その... コード この論文は 0.54
found at https://github.com/h ep-lbdl/calibrationp riors, which makes use of Jupyter notebooks [115] employing NumPy [116] for data manipulation and Matplotlib [117] to produce figures. https://github.com/h ep-lbdl/calibrationp riorsで見つかった。これはJupyterのノートブック[115]で、データ操作にはNumPy[116]、数字を生成するにはMatplotlib[117]を使用している。
訳抜け防止モード: jupyter notebooks [115 ] データ操作にnumpy [116 ]を使用するhttps://github.com/h ep-lbdl/calibrationp riorsを参照。 matplotlib (countable かつ uncountable, 複数形 matplotlibs)
0.69
All of the machine learning was performed on a Nvidia RTX6000 Graphical Processing Unit (GPU). すべての機械学習はNvidia RTX6000 Graphical Processing Unit (GPU)上で実行された。 0.90
The physics data sets are hosted on Zenodo at Refs. 物理データセットはzenodo at refsにホストされている。 0.74
[106–108, 110]. [106–108, 110]. 0.49
can be ACKNOWLEDGMENTS できるかもしれない 裏書き 0.35
BN is supported by the U.S. Department of Energy (DOE), Office of Science under contract DE-AC0205CH11231. BNはD-AC0205CH11231契約の下でアメリカ合衆国エネルギー省(DOE)が支援している。 0.68
RG and JT are supported by the National Science Foundation under Cooperative Agreement PHY-2019786 (The NSF AI Institute for Artificial Intelligence and Fundamental Interactions, http://iaifi. org/), and by the U.S. DOE Office of High Energy Physics under grant number DE-SC0012567. RGとJTは、協力協定 PHY-20 19786 (NSF AI Institute for Artificial Intelligence and Fundamental Interactions, http://iaifi. org/)の下で国立科学財団によって支援されており、アメリカ合衆国高エネルギー物理学局(DOE Office of High Energy Physics, DE-SC0012567)によって支援されている。 0.64
[1] Georges Aad et al (ATLAS), “Topological cell clustering in the ATLAS calorimeters and its performance in LHC Run 1,” Eur. [1] georges aad et al (atlas), “atlas calorimetersにおけるトポロジカル細胞クラスタリングとそのlhc run 1におけるパフォーマンス” である。 0.73
Phys. J. C 77, 490 (2017), arXiv:1603.02934 [hep-ex]. Phys J.C 77, 490 (2017), arXiv:1603.02934 [hep-ex]. 0.37
[2] A. M. Sirunyan et al (CMS), “Particle-flow reconstruction and global event description with the CMS detector,” JINST 12, P10003 (2017), arXiv:1706.04965 [physics.insdet]. [2] A. M. Sirunyan et al (CMS), “Particle-flow reconstruction and global event description with the CMS detector”, JINST 12, P10003 (2017), arXiv:1706.04965 [physics.insdet].
訳抜け防止モード: [2 ]A.M. Sirunyan et al (CMS ) 『CMS検出器による粒子流再建とグローバルイベント記述』 JINST 12, P10003 (2017 ), arXiv:1706.04965 [ Physics.insdet ]
0.85
[3] Georges Aad et al (ATLAS), “Jet energy scale and resolution measured in proton–proton collisions at s = 13 TeV with the ATLAS detector,” Eur. アトラス検出器とs = 13 tevでの陽子-陽子衝突で測定されたジェットエネルギースケールと分解能。 0.40
Phys. J. C 81, 689 (2021), arXiv:2007.02645 [hep-ex]. Phys J. C 81, 689 (2021), arXiv: 2007.02645 [hep-ex]. 0.36
[4] Vardan Khachatryan et al (CMS), “Jet energy scale and resolution in the CMS experiment in pp collisions [4]Vardan Khachatryan et al (CMS)「p衝突におけるCMS実験におけるジェットエネルギースケールと分解能」 0.84
√ at 8 TeV,” JINST 12, P02014 (2017), arXiv:1607.03663 [hep-ex]. √ とJINST 12, P02014 (2017), arXiv:1607.03663 [hep-ex]。 0.41
[5] Georges Aad et al (ATLAS), “Muon reconstruction performance of the ATLAS detector in proton–proton √ s =13 TeV,” Eur. 5]Georges Aad et al (ATLAS), “陽子-陽子-陽子-陽子-陽子-s=13TeVのATLAS検出器のミューオン再構成性能”。 0.33
Phys. J. C 76, 292 collision data at (2016), arXiv:1603.05598 [hep-ex]. Phys J. C 76, 292 collision data at (2016), arXiv:1603.05598 [hep-ex] 0.37
[6] Albert M Sirunyan et al (CMS), “Performance of the reconstruction and identification of high-momentum muons s = 13 TeV,” JINST 15, in proton-proton collisions at P02027 (2020), arXiv:1912.03516 [physics.ins-det]. 6] albert m sirunyan et al (cms), "high-momentum muons s = 13 tev", jinst 15 in proton-proton collisions at p02027 (2020), arxiv:1912.03516 [physics.ins-det]。
訳抜け防止モード: 6)albert m sirunyan et al (cms)。 「高運動量ミューオンs=13tevの復元と同定の性能」 jinst 15 in proton - proton collisions at p02027 (2020) arxiv:1912.03516 [ physics.ins - det ]
0.68
[7] Georges Aad et al (ATLAS), “Electron and photon performance measurements with the ATLAS detector using the 2015–2017 LHC proton-proton collision data,” JINST 14, P12006 (2019), arXiv:1908.00005 [hep-ex]. 7] georges aad et al (atlas), “2015–2017 lhc陽子-陽子衝突データを用いたatlas検出器による電子と光子の性能測定”、jinst 14, p12006 (2019), arxiv: 1908.00005 [hep-ex]。
訳抜け防止モード: 7] Georges Aad et al (ATLAS ) 「2015-2017年のLHC陽子衝突データを用いたATLAS検出器による電子と光子の性能測定」 JINST 14 P12006 (2019 ), arXiv:1908.00005 [ hep - ex ]
0.88
0.42
英語(論文から抽出)日本語訳スコア
√ [8] Vardan Khachatryan et al (CMS), “Performance of Photon Reconstruction and Identification with the CMS Detector in Proton-Proton Collisions at sqrt(s) = 8 TeV,” JINST 10, P08010 (2015), arXiv:1502.02702 [physics.insdet]. √ 8] vardan khachatryan et al (cms), "sqrt(s) = 8 tevでの陽子-陽子衝突におけるcms検出器による光子再構成と同定の性能" jinst 10, p08010 (2015), arxiv:1502.02702 [physics.insdet]。 0.55
[9] Vardan Khachatryan et al (CMS), “Performance of Electron Reconstruction and Selection with the CMS Detector in Proton-Proton Collisions at √s = 8 TeV,” JINST 10, P06005 (2015), arXiv:1502.02701 [physics.ins-det]. 9] vardan khachatryan et al (cms), “s = 8 tevでの陽子-陽子衝突におけるcms検出器による電子再構成と選択のパフォーマンス”、jinst 10, p06005 (2015), arxiv:1502.02701 [physics.ins-det]。
訳抜け防止モード: [9 ]Vardan Khachatryan et al (CMS )「陽子-陽子衝突における電子再構成とCMS検出器の選択性能」 JINST 10, P06005 (2015 ), arXiv:1502.02701 [ Physics.ins - det ]
0.78
[10] Georges Aad et al (ATLAS), “Identification and energy calibration of hadronically decaying tau leptons with the ATLAS experiment in pp collisions at s=8 TeV,” Eur. 10] Georges Aad et al (ATLAS), “S=8TeVでの衝突におけるATLAS実験によるハドロン崩壊したタウレプトンの同定とエネルギーキャリブレーション”。 0.74
Phys. J. C 75, 303 (2015), arXiv:1412.7086 [hep-ex]. Phys J.C 75, 303 (2015), arXiv:1412.7086 [hep-ex]. 0.36
[11] A. M. Sirunyan et al (CMS), “Performance of reconstruction and identification of τ leptons decaying to hadrons √ s = 13 TeV,” JINST 13, and ντ in pp collisions at P10005 (2018), arXiv:1809.02816 [hep-ex]. 11] a.m. sirunyan et al (cms), "performance of reconstruction and identification of τ leptons decaying to hadrons s = 13 tev", jinst 13, ντ in pp collisions at p10005 (2018), arxiv:1809.02816 [hep-ex]。
訳抜け防止モード: [11 ]A.M. Sirunyan et al (CMS ) 「ハドロンs=13TeV」に崩壊するτレプトンの復元と識別性能 JINST 13 and ντ in pp collisions at P10005 (2018 ) arXiv:1809.02816 [ hep - ex ]
0.79
[12] Georges Aad et al (ATLAS), “ATLAS b-jet identification performance and efficiency measurement with t¯t √ events in pp collisions at s = 13 TeV,” Eur. 12] Georges Aad et al (ATLAS), “ATLAS b-jetの識別性能と効率の測定は, s = 13 TeVで衝突した場合に, t >t > イベントで行う。 0.83
Phys. J. C 79, 970 (2019), arXiv:1907.05120 [hep-ex]. Phys J.C 79, 970 (2019), arXiv: 1907.05120 [hep-ex]. 0.36
[13] A. M. Sirunyan et al (CMS), “Identification of heavyflavour jets with the CMS detector in pp collisions at 13 TeV,” JINST 13, P05011 (2018), arXiv:1712.07158 [physics.ins-det]. 13] a. m. sirunyan et al (cms), “ pp collisions at 13 tev” jinst 13 p05011 (2018), arxiv:1712.07158 [physics.ins-det] では重油ジェットとcms検出器の衝突を識別する。
訳抜け防止モード: [13 ]A.M. Sirunyan et al (CMS ) 13TeVで衝突したCMS検出器による重火花ジェットの同定」 JINST 13 P05011 (2018 ), arXiv:1712.07158 [ Physics.ins - det ]
0.83
[14] Morad Aaboud et al (ATLAS), “Performance of topquark and W -boson tagging with ATLAS in Run 2 of the LHC,” Eur. 14] morad aaboud et al (atlas), “performance of topquark and w-boson tagging with atlas in run 2 of the lhc” とeurは述べている。 0.68
Phys. J. C 79, 375 (2019), arXiv:1808.07858 [hep-ex]. Phys J.C 79, 375 (2019), arXiv:1808.07858 [hep-ex] 0.36
[15] Albert M Sirunyan et al (CMS), “Identification of heavy, energetic, hadronically decaying particles using machine-learning techniques,” JINST 15, P06005 (2020), arXiv:2004.08262 [hep-ex]. JINST 15 P06005 (2020), arXiv:2004.08262 [hep-ex]. [15] Albert M Sirunyan et al, “Identification of heavy, energetic, hadronically decaying particles using machine-learning techniques”. JINST 15 P06005 (2020), arXiv:2004.08262 [hep-ex].
訳抜け防止モード: [15 ]Albert M Sirunyan et al (CMS ) 「重く、エネルギッシュで、ハドロン的に崩壊する粒子を機械学習技術で同定する」 JINST 15 P06005 (2020 ), arXiv:2004.08262 [ hep - ex ]
0.83
[16] Dawit Belayneh et al , “Calorimetry with deep learning: particle simulation and reconstruction for collider physics,” Eur. 16] Dawit Belayneh et al , “Calorimetry with Deep Learning: Particle Simulation and reconstruction for collider Physics”[原文](miho)【関連記事】。 0.42
Phys. J. C 80, 688 (2020), arXiv:1912.06794 [physics.ins-det]. Phys J. C 80, 688 (2020), arXiv:1912.06794 [physics.ins-det]. 0.35
[17] ATLAS Collaboration, “Deep Learning for Pion Identification and Energy Calibration with the ATLAS Detector,” ATL-PHYS-PUB-2020-01 8 (2020). [17]ATLASコラボレーション, “Deep Learning for Pion Identification and Energy Calibration with the ATLAS Detector”, ATL-PHYS-PUB-2020-01 8(2020)
訳抜け防止モード: [17 ]ATLAS 共同研究,「ATLAS 検出器を用いたピオン同定とエネルギー校正のための深層学習」 ATL - PHYS - PUB-2020 - 018 (2020 )。
0.65
[18] Akchurin, N. and Cowden, C. and Damgov, J. and Hussain, A. and Kunori, S., “On the Use of Neural Networks for Energy Reconstruction in High-granularity Calorimeters,” (2021), arXiv:2107.10207 [physics.ins-det]. 18] akchurin, n. and cowden, c. and damgov, j. and hussain, a. and kunori, s. "高粒度熱量計におけるエネルギー再構成のためのニューラルネットワークの使用について" (2021), arxiv:2107.10207 [physics.ins-det]。 0.73
[19] N. Akchurin, C. Cowden, J. Damgov, A. Hussain, and S. Kunori, “Perspectives on the Calibration of CNN Energy Reconstruction in Highly Granular Calorimeters,” (2021), arXiv:2108.10963 [physics.ins-det]. 19]n. akchurin, c. cowden, j. damgov, a. hussain, s. kunori, "高粒度熱量計におけるcnnエネルギー再構成の校正に関する調査" (2021), arxiv:2108.10963 [physics.ins-det]。 0.73
[20] L. Polson, L. Kurchaninov, and M. Lefebvre, “Energy reconstruction in a liquid argon calorimeter cell using convolutional neural networks,” (2021), arXiv:2109.05124 [physics.ins-det]. 2021, arxiv:2109.05124 [physics.ins-det] [20] l. polson, l. kurchaninov, m. lefebvre, “畳み込みニューラルネットワークを用いた液体アルゴンカロリメータセル内のエネルギー再構成” (2021), arxiv:2109.05124 [physics.ins-det]
訳抜け防止モード: 20 ] l. polson, l. kurchaninov, m. lefebvre. 畳み込みニューラルネットワークを用いた液体アルゴンカロリメータセルのエネルギー再構成」 (2021年) , arxiv:2109.05124 [ physics.ins - det ]
0.75
[21] Joosep Pata, Javier Duarte, Jean-Roch Vlimant, Maurizio Pierini, and Maria Spiropulu, “MLPF: Efficient machine-learned particle-flow reconstruction using graph neural networks,” (2021), arXiv:2101.08578 [physics.data-an]. Joosep Pata, Javier Duarte, Jean-Roch Vlimant, Maurizio Pierini, Maria Spiropulu, “MLPF: Efficient machine-learned Particle-flow reconstruction using graph neural network” (2021), arXiv:2101.08578 [physics.data-an].
訳抜け防止モード: [21 ]ジョゼップ・パタ,ハビエル・ドゥアルテ,ジャン - ロッホ・ヴィリアント, Maurizio Pierini, and Maria Spiropulu, “MLPF : Efficient Machine- learned Particle-flow reconstruction using graph Neural Network” (2021年)、arXiv:2101.08578 [ Physics.data - an ]
0.75
[22] Jan Kieseler, Giles C. Strong, Filippo Chiandotto, Tommaso Dorigo, and Lukas Layer, “Calorimetric Measurement of Multi-TeV Muons via Deep Regression,” (2021), arXiv:2107.02119 [physics.ins-det]. Jan Kieseler, Giles C. Strong, Filippo Chiandotto, Tommaso Dorigo, and Lukas Layer, “Calorimetric Measurement of Multi-TeV Muons via Deep Regression” (2021), arXiv:2107.02119 [physics.ins-det]
訳抜け防止モード: 【22】ヤン・キーゼラー、ジャイルズ・c・ストロング、フィリッポ・チアンドット、 tommaso dorigo, lukas layer, and lukas layer, "深回帰によるマルチtevミューオンの温度計測" (2021年) , arxiv:2107.02119 [ physics.ins - det ]
0.53
[23] ATLAS Collaboration, “Generalized Numerical Inversion: A Neural Network Approach to Jet Calibration,” A Neural Network Approach to Jet Calibration”[23] ATLAS Collaboration, “Generalized Numerical Inversion: A Neural Network Approach to Jet Calibration” 0.42
14 ATL-PHYS-PUB-2018-01 3 (2018). 14 ATL-PHYS-PUB-2018-01 3 (2018)。 0.33
[24] ATLAS Collaboration, “Simultaneous Jet Energy and Mass Calibrations with Neural Networks,” ATL-PHYSPUB-2020-001 (2020). atl-physpub-2020-001 (2020年) 0.11
[25] Albert M Sirunyan et al (CMS), “A Deep Neural Network for Simultaneous Estimation of b Jet Energy and Resolution,” Comput. [25] albert m sirunyanら(cms)は、“bジェットエネルギーと解像度を同時に推定するディープニューラルネットワーク”だ。 0.60
Softw. Big Sci. 柔らかくて ビッグSci。 0.50
4, 10 (2020), arXiv:1912.06046 [hep-ex]. 4, 10 (2020), arXiv:1912.06046 [hep-ex]。 0.43
[26] Rüdiger Haake and Constantin Loizides, “Machine Learning based jet momentum reconstruction in heavyion collisions,” Phys. [26]Rüdiger Haake氏とConstantin Loizides氏は,“マカインラーニングに基づく重イオン衝突におけるジェットモーメントの再構築”とPhys氏は述べている。
訳抜け防止モード: [26 ]Rüdiger Haake と Constantin Loizides,「重イオン衝突における機械学習に基づくジェット運動量再構成」 とPhys。
0.86
Rev. C 99, 064904 (2019), arXiv:1810.06324 [nucl-ex]. C 99, 064904 (2019), arXiv:1810.06324 [nucl-ex]. 0.46
[27] Rüdiger Haake (ALICE), “Machine Learning based jet momentum reconstruction in Pb-Pb collisions measured with the ALICE detector,” PoS EPS-HEP2019, 312 (2020), arXiv:1909.01639 [nucl-ex]. 27] rüdiger haake (alice), "alice検出器で測定したpb-pb衝突における機械学習に基づくジェット運動量再構成", pos eps-hep2019, 312 (2020), arxiv:1909.01639 [nucl-ex]。 0.68
[28] Baldi, Pierre and Blecher, Lukas and Butter, Anja and Collado, Julian and Howard, Jessica N. and Keilbach, Fabian and Plehn, Tilman and Kasieczka, Gregor and Whiteson, Daniel, “How to GAN Higher Jet Resolution,” (2020), arXiv:2012.11944 [hep-ph]. [28] Baldi, Pierre and Blecher, Lukas and Butter, Anja and Collado, Julian and Howard, Jessica N. and Keilbach, Fabian and Plehn, Tilman and Kasieczka, Gregor and Whiteson, Daniel, “How to GAN Higher Jet Resolution” (2020), arXiv:2012.1 1944 [hep-ph]
訳抜け防止モード: 28]バルディ、ピエール、ブレッシャー、ルカ、バター anja and collado、julian and howard、jessica n. and keilbach。 fabian and plehn, tilman and kasieczka, gregor and whiteson。 daniel, “how to gan higher jet resolution, ”(2020年) arxiv:2012.11944 [hep - ph]。
0.69
[29] Patrick T. Komiske, Eric M. Metodiev, Benjamin Nachman, and Matthew D. Schwartz, “Pileup Mitigation with Machine Learning (PUMML),” JHEP 12, 051 (2017), arXiv:1707.08600 [hep-ph]. Patrick T. Komiske, Eric M. Metodiev, Benjamin Nachman, Matthew D. Schwartz, “Pileup Mitigation with Machine Learning (PUMML), JHEP 12, 051 (2017), arXiv:1707.08600 [hep-ph]”。
訳抜け防止モード: (29)Patrick T. Komiske、Eric M. Metodiev、Benjamin Nachman そしてMatthew D. Schwartz氏は,“PUMML(Pileup Mitigation with Machine Learning)”と題する。 JHEP 12, 051 (2017 ), arXiv:1707.08600 [ hep - ph ]
0.87
[30] Convolutional Neural Networks with Event Images for Pileup Mitigation with the ATLAS Detector, Tech. [30]ATLAS検出器を用いたパイルアップ緩和のためのイベント画像付き畳み込みニューラルネットワーク。 0.73
Rep. (CERN, Geneva, 2019). rep. (cern, geneva, 2019) を参照。 0.62
[31] Benedikt Maier, Siddharth M. Narayanan, Gianfranco de Castro, Maxim Goncharov, Christoph Paus, and Matthias Schott, “Pile-Up Mitigation using Attention,” (2021), arXiv:2107.02779 [physics.ins-det]. [31]Benedikt Maier, Siddharth M. Narayanan, Gianfranco de Castro, Maxim Goncharov, Christoph Paus, Matthias Schott, “Pile-Up Mitigation using Attention” (2021), arXiv:2107.02779 [physics.ins-det]
訳抜け防止モード: [31 ]Benedikt Maier, Siddharth M. Narayanan, Gianfranco de Castro, Maxim Goncharov氏、Christoph Paus氏、Matthias Schott氏は次のように述べている。 (2021年)、arXiv:2107.02779
0.70
[32] Gregor Kasieczka, Michel Luchmann, Florian Otterpohl, and Tilman Plehn, “Per-Object Systematics using DeepLearned Calibration,” (2020), arXiv:2003.11099 [hepph]. 32] gregor kasieczka氏、michel luchmann氏、florian otterpohl氏、tilman plehn氏、"deeplearned calibrationを用いたオブジェクト毎のシステマティックス" (2020)、arxiv:2003.11099 [hepph]。 0.62
[33] J. Arjona Martínez, Olmo Cerri, Maurizio Pierini, Maria Spiropulu, and Jean-Roch Vlimant, “Pileup mitigation at the Large Hadron Collider with graph neural networks,” Eur. J. Arjona Martínez氏、Olmo Cerri氏、Maurizio Pierini氏、Maria Spiropulu氏、Jean-Roch Vlimant氏は次のように述べている。
訳抜け防止モード: 33] j. arjona martínez, olmo cerri, maurizio pierini maria spiropuluとjean-roch vlimantは、“グラフニューラルネットワークによる大型ハドロン衝突の軽減策”だ。
0.58
Phys. J. Plus 134, 333 (2019), arXiv:1810.07988 [hep-ph]. Phys J. Plus 134, 333 (2019), arXiv:1810.07988 [hep-ph] 0.35
[34] Markus Diefenthaler, Abduhhal Farhat, Andrii Verbytskyi, and Yuesheng Xu, “Deeply Learning Deep Inelastic Scattering Kinematics,” (2021), arXiv:2108.11638 [hepph]. [34]Markus Diefenthaler, Abduhhal Farhat, Andrii Verbytskyi, Yuesheng Xu, “Deeply Learning Deep Inelastic Scattering Kinematics” (2021), arXiv:2108.11638 [hepph].
訳抜け防止モード: 34] markus diefenthaler, abduhhal farhat, andrii verbytskyi yuesheng xu氏: “深い非弾性散乱キネマティックスを深く学ぶ” (2021年) , arxiv:2108.11638 [hepph ]。
0.70
[35] Junze Liu, Jordan Ott, Julian Collado, Benjamin Jargowsky, Wenjie Wu, Jianming Bian, and Pierre Baldi (DUNE), “Deep-Learning-Based Kinematic Reconstruction for DUNE,” (2020), arXiv:2012.06181 [physics.insdet]. [35]Junze Liu, Jordan Ott, Julian Collado, Benjamin Jargowsky, Wenjie Wu, Jianming Bian, Pierre Baldi (DUNE), “Deep-Learning-Based Kiinematic Reconstruction for DUNE” (2020), arXiv:2012.06181 [physics.insdet]
訳抜け防止モード: [35 ]ユンゼ・リュー、ヨルダン・オット、ジュリアン・コラード Benjamin Jargowsky, Wenjie Wu, Jianming Bian, Pierre Baldi (DUNE) 深層学習に基づくDUNEの運動再構成(2020年) arXiv:2012.06181 [ Physics.insdet ]
0.81
[36] S. Delaquis et al (EXO), “Deep Neural Networks for Energy and Position Reconstruction in EXO-200,” JINST 13, P08023 (2018), arXiv:1804.09641 [physics.ins-det]. [36]s. delaquis et al (exo), “deep neural network for energy and position reconstruction in exo-200”、jinst 13, p08023 (2018), arxiv:1804.09641 [physics.ins-det]。
訳抜け防止モード: [36 ]S. Delaquis et al (EXO ) “Deep Neural Networks for Energy” EXO-200, ”JINST 13 P08023 (2018) における位置再構成 arXiv:1804.09641 [ Physics.ins - det ]
0.85
[37] Pierre Baldi, Jianming Bian, Lars Hertel, and Lingge Li, “Improved Energy Reconstruction in NOvA with Regression Convolutional Neural Networks,” Phys. 37] pierre baldi, jianming bian, lars hertel, lingge li, “回帰畳み込みニューラルネットワークによるnovaのエネルギー再構成を改良した”、とphysは述べている。
訳抜け防止モード: [37 ]Pierre Baldi, Jianming Bian, Lars Hertel, そしてLingge Li, “Regression Convolutional Neural NetworksでNOvAのエネルギー再構成を改良した”、とPhysは語る。
0.86
Rev. D 99, 012011 (2019), arXiv:1811.04557 [physics.ins-det]. D 99, 01 2011 (2019), arXiv:1811.04557 [physics.ins-det]. 0.41
[38] R. Abbasi et al , “A Convolutional Neural Network based Cascade Reconstruction for the IceCube Neutrino Observatory,” JINST 16, P07041 (2021), arXiv:2101.11589 [hep-ex]. [38]R. Abbasi et al , “A Convolutional Neural Network based Cascade Reconstruction for the IceCube Neutrino Observatory”, JINST 16, P07041 (2021), arXiv:2101.11589 [hep-ex]. 0.48
[39] M. G. Aartsen et al (IceCube), “Cosmic ray spectrum from 250 TeV to 10 PeV using IceTop,” Phys. [39] m. g. aartsen et al (icecube), “氷上を用いて250tevから10pevまでの光線スペクトル”。 0.69
Rev. D 102, 122001 (2020), arXiv:2006.05215 [astro-ph.HE]. D 102, 122001 (2020), arXiv:2006.05215 [astro-ph.HE]. 0.45
英語(論文から抽出)日本語訳スコア
[40] Kiara Carloni, Nicholas W. Kamp, Austin Schneider, and Janet M. Conrad, “Convolutional Neural Networks for Shower Energy Prediction in Liquid Argon Time Projection Chambers,” (2021), arXiv:2110.10766 [hepex]. Kiara Carloni, Nicholas W. Kamp, Austin Schneider, Janet M. Conrad, “Convolutional Neural Networks for Shower Energy Prediction in Liquid Argon Time Projection Chambers” (2021), arXiv:2110.10766 [hepex].
訳抜け防止モード: 40]kiara carloni、nicholas w. kamp、austin schneider。 そしてjanet m. conrad氏は、"液体アルゴン時間投影室におけるシャワーエネルギー予測のための畳み込みニューラルネットワーク"だ。 (2021年)、arxiv:2110.10766[hepex ]。
0.55
[41] Matthew Feickert and Benjamin Nachman, “A Living Review of Machine Learning for Particle Physics,” (2021), arXiv:2102.02770 [hep-ph]. Matthew Feickert氏とBenjamin Nachman氏の“A Living Review of Machine Learning for Particle Physics” (2021年), arXiv:2102.02770 [hep-ph]。
訳抜け防止モード: 41 ]matthew feickert氏とbenjamin nachman氏,“a living review of machine learning for particle physics” (2021年) , arxiv:2102.02770 [hep - ph] であった。
0.71
[42] Chris Pollard and Philipp Windischhofer, “Transport away your problems: Calibrating stochastic simulations with optimal transport,” (2021), arXiv:2107.08648 [physics.data-an]. 42] chris pollard と philipp windischhofer は “transport away your problems: calibrating stochastic simulations with optimal transport” (2021), arxiv:2107.08648 [physics.data-an] と書いている。 0.81
[43] Rikab Gambhir, Benjamin Nachman, and Jesse Thaler, “Learning uncertainties the frequentist way: Calibration and correlation in high energy physics,” (2022), arXiv:2205.03413 [hep-ph]. [43] Rikab Gambhir, Benjamin Nachman, Jesse Thaler, “Learning certainties the frequentist way: Calibration and correlation in High Energy Physics” (2022), arXiv:2205.03413 [hep-ph]。
訳抜け防止モード: [43 ]Rikab Gambhir,Benjamin Nachman,Jesse Thaler 「高エネルギー物理学における校正と相関」 (2022年)、arXiv:2205.03413 [hep - ph ]
0.64
[44] Sanha Cheong, Aviv Cukierman, Benjamin Nachman, Murtaza Safdari, and Ariel Schwartzman, “Parametrizing the Detector Response with Neural Networks,” JINST 15, P01030 (2020), arXiv:1910.03773 [physics.data-an]. [44] sanha cheong氏、aviv cukierman氏、benjamin nachman氏、murtaza safdari氏、ariel schwartzman氏、"ニューラルネットワークによる検出器応答のパラメータ化",jinst 15, p01030 (2020), arxiv:1910.03773 [physics.data-an]。
訳抜け防止モード: [44 ]サンハ・チョン、アビブ・クキアマン、ベンジャミン・ナチマン Murtaza SafdariとAriel Schwartzmanは語る。 ニューラルネットワークによる検出器応答のパラメトリゼーション” JINST 15 P01030 (2020 ), arXiv:1910.03773 [ Physics.data - an ]
0.78
[45] A. Cukierman and B. Nachman, “Mathematical Properties of Numerical Inversion for Jet Calibrations.” [45] a. cukierman, b. nachman, 『ジェットキャリブレーションの数値インバージョンに関する数学的性質』 0.72
Nucl. Instrum. Meth. 核だ インストラム メス 0.35
A 858, 1 (2017), arXiv:1609.05195 [physics.data-an]. A 858, 1 (2017), arXiv:1609.05195 [physics.data-an] 0.39
[46] Danilo Jimenez Rezende and Shakir Mohamed, “Variational inference with normalizing flows,” International Conference on Machine Learning 37, 1530 (2015). 46] Danilo Jimenez Rezende, Shakir Mohamed, “Variational inference with normalizing flow”, International Conference on Machine Learning 37, 1530 (2015)。
訳抜け防止モード: 46 ] Danilo Jimenez Rezende と Shakir Mohamed の「正規化フローによる変分推論」 International Conference on Machine Learning 37, 1530 (2015 )
0.72
[47] Ivan Kobyzev, Simon Prince, and Marcus Brubaker, “Normalizing Flows: An Introduction and Review of Current Methods,” IEEE Transactions on Pattern Analysis and Machine Intelligence , 1 (2020). [47]Ivan Kobyzev,Simon Prince,Marcus Brubaker, “Normalizing Flows: An Introduction and Review of Current Methods”, IEEE Transactions on Pattern Analysis and Machine Intelligence, 1 (2020)”。
訳抜け防止モード: [47 ]イヴァン・コビゼフ、シモン・プリンス、マルクス・ブルバカー 「正規化フロー : 最近の手法の紹介と展望」 IEEE Transactions on Pattern Analysis and Machine Intelligence, 1 (2020 )。
0.66
[48] Benjamin Nachman and Jesse Thaler, “E Pluribus Unum Ex Machina: Learning from Many Collider Events at Once,” (2021), arXiv:2101.07263 [physics.data-an]. [48]Benjamin Nachman,Jesse Thaler, “E Pluribus Unum Ex Machina: Learning from Many Collider Events at Once” (2021), arXiv:2101.07263 [physics.data-an].
訳抜け防止モード: [48 ]Benjamin Nachman and Jesse Thaler, “E Pluribus Unum Ex Machina? 一度に多くの衝突イベントから学ぶ”。 (2021年)、arXiv:2101.07263 [ Physics.data - an ]
0.71
[49] Monroe D. Donsker and S. R. S. Varadhan, “Asymptotic evaluation of certain markov process expectations for large time,” (1975). [49] Monroe D. Donsker and S. R. S. Varadhan, “Asymptotic evaluation of certain Markov process expected for large time” (1975)。
訳抜け防止モード: [49]モンロー・d・ドンスカーとs・r・s・バラダン 「大規模なマルコフ過程の期待値の漸近的評価」 ( 1975 ) .
0.72
[50] Mohamed Ishmael Belghazi, Aristide Baratin, Sai Rajeswar, Sherjil Ozair, Yoshua Bengio, Aaron Courville, and R Devon Hjelm, “Mine: Mutual information neural estimation,” (2018), arXiv:1801.04062 [cs.LG]. [50]Mohamed Ishmael Belghazi, Aristide Baratin, Sai Rajeswar, Sherjil Ozair, Yoshua Bengio, Aaron Courville, R Devon Hjelm, “Mine: Mutual Information Neural Estimation” (2018), arXiv:1801.04062 [cs.LG]
訳抜け防止モード: [50 ]Mohamed Ishmael Belghazi, Aristide Baratin, Sai Rajeswar, Sherjil Ozair, Yoshua Bengio, Aaron Courville, R Devon Hjelm マイニング : 相互情報ニューラル推定(2018年) arXiv:1801.04062 [cs . LG ]
0.74
[51] Solomon Kullback and Richard A Leibler, “On information and sufficiency,” The annals of mathematical statistics 22, 79–86 (1951). [51] Solomon Kullback と Richard A Leibler, “On information and sufficiency”, The annals of mathematical statistics 22, 79–86 (1951)。 0.42
[52] Chuan Guo, Geoff Pleiss, Yu Sun, and Kilian Q. Weinberger, “On calibration of modern neural networks,” in Proceedings of the 34th International Conference on Machine Learning, Proceedings of Machine Learning Research, Vol. The 34th International Conference on Machine Learning, Proceedings of Machine Learning Research, Vol.[52] Chuan Guo, Geoff Pleiss, Yu Sun, Kilian Q. Weinberger, “On calibration of Modern Neural Network” in Proceedings on the 34th International Conference on Machine Learning, Proceedings of Machine Learning Research, Vol.
訳抜け防止モード: [52 ]チュアン・グオ、ゲフ・プレイス、ユ・サン、 Kilian Q. Weinbergerは曰く、“現代のニューラルネットワークの校正について”。 第34回In Proceedings of the 34th International Conference on Machine Learning, Proceedings of Machine Learning Research, Vol
0.78
70, edited by Doina Precup and Yee Whye Teh (PMLR, 2017) pp. 1321–1330. 70, doina precup and yee whye teh (pmlr, 2017) pp. 1321-1330。 0.33
[53] Kyle Cranmer, Juan Pavez, and Gilles Louppe, “Approximating Likelihood Ratios with Calibrated Discriminative Classifiers,” (2015), arXiv:1506.02169 [stat.AP]. Kyle Cranmer, Juan Pavez, Gilles Louppe, “Approximating Likelihood Ratios with Calibrated Discriminative Classifiers” (2015), arXiv:1506.02169 [stat.AP]
訳抜け防止モード: [53 ]カイル・クランマー、フアン・パベス、ジル・ループ。 『差別分類器の校正による類比の近似』(2015年) arXiv:1506.02169 [ stat . AP ]
0.58
[54] A. Rogozhnikov, “Reweighting with Boosted Decision Trees,” Proceedings, 17th International Workshop on Advanced Computing and Analysis Techniques in Physics Research (ACAT 2016): Valparaiso, Chile, January 18-22, 2016 762, 012036 (2016), arXiv:1608.05806 [physics.data-an]. A. Rogozhnikov, “Reweighting with Boosted Decision Trees” Proceedings, 17th International Workshop on Advanced Computing and Analysis Techniques in Physics Research (ACAT 2016): Valparaiso, Chile, January 18-22, 2016 762, 012036 (2016), arXiv: 1608.05806 [physics.data-an]
訳抜け防止モード: 54 ] A. Rogozhnikov, “ 強化された決定木による再重み付け”。 第17回Advanced Computing and Analysis Techniques in Physics Research(ACAT 2016)に参加して Chile, January 18 - 22, 2016 762, 012036 ( 2016 ), arXiv:1608.05806 [ Physics.data - an ]
0.90
[55] Anders Andreassen and Benjamin Nachman, “Neural Networks for Full Phase-space Reweighting and Parameter Tuning,” Phys. He55] Anders Andreassen氏とBenjamin Nachman氏は,“Neural Networks for Full Phase-space Reweighting and Parameter Tuning”と題した記事を書いた。 0.68
Rev. D 101, 091901 (2020), arXiv:1907.08209 [hep-ph]. D 101, 091901 (2020), arXiv:1907.08209 [hep-ph]. 0.46
15 [56] S. Diefenbacher, E. Eren, G. Kasieczka, A. Korol, B. Nachman, and D. Shih, “DCTRGAN: Improving the Precision of Generative Models with Reweighting,” Journal of Instrumentation 15, P11004 (2020), arXiv:2009.03796 [hep-ph]. 15 [56] S. Diefenbacher, E. Eren, G. Kasieczka, A. Korol, B. Nachman, D. Shih, “DCTRGAN: Improving the Precision of Generative Models with Reweighting”. Journal of Instrumentation 15 P11004 (2020), arXiv:2009.03796 [hep-ph].
訳抜け防止モード: 15 [56 ]S. Diefenbacher, E. Eren, G. Kasieczka, A. Korol, B. Nachman, D. Shih, “DCTRGAN :” 再重み付けによる生成モデルの精度向上」 Journal of Instrumentation 15 P11004 (2020 ), arXiv:2009.03796 [ hep - ph ]
0.68
[57] Benjamin Nachman and Jesse Thaler, “Neural Con(2021), arXiv:2107.08979 [57]Benjamin Nachman,Jesse Thaler, “Neural Con(2021), arXiv:2107.08979 0.44
ditional Reweighting,” [physics.data-an]. ditional reweighting" [physics.data-an] 0.43
[58] Gilles Louppe, Michael Kagan, Gilles Louppe, Michael Kagan (複数形 Gilles Louppes) 0.36
and Kyle Cranmer, “Learning to Pivot with Adversarial Networks,” in Advances in Neural Information Processing Systems, Vol. そしてkyle cranmer(カイル・クランマー)氏は、神経情報処理システム(neural information processing systems, vol.)の進歩についてこう述べている。
訳抜け防止モード: そしてKyle Cranmerは語る。 敵ネットワークでPivotを学習する”。 In Advances in Neural Information Processing Systems, Vol .
0.78
30, edited by I. Guyon, U. V. Luxburg, S. Bengio, H. Wallach, R. Fergus, S. Vishwanathan, and R. Garnett (Curran Associates, Inc., 2017) arXiv:1611.01046 [stat.ME]. 編集はI. Guyon, U.V. Luxburg, S. Bengio, H. Wallach, R. Fergus, S. Vishwanathan, R. Garnett (Curran Associates, Inc., 2017) arXiv:1611.01046[stat.ME]。 0.45
[59] James Dolen, Philip Harris, Simone Marzani, Salvatore Rappoccio, and Nhan Tran, “Thinking outside the ROCs: Designing Decorrelated Taggers (DDT) for jet substructure,” JHEP 05, 156 (2016), arXiv:1603.00027 [hep-ph]. [59]James Dolen, Philip Harris, Simone Marzani, Salvatore Rappoccio, Nhan Tran, “Thinking outside the ROCs: Designing Decorrelated Taggers (DDT) for jet substructure), JHEP 05, 156 (2016), arXiv: 1603.00027 [hep-ph]”.
訳抜け防止モード: 59 ] James Dolen, Philip Harris, Simone Marzani, Salvatore RappoccioとNhan Tran : “ROCの外で考える” DDT(Decorrelated Taggers)をジェットサブ構造に設計する」。 JHEP 05, 156 (2016 ), arXiv:1603.00027 [ hep - ph ]
0.83
[60] Ian Moult, Benjamin Nachman, 60] イアン・ムールト ベンジャミン・ナックマン 0.50
and Duff Neill, “Convolved Substructure: Analytically Decorrelating Jet Substructure Observables,” JHEP 05, 002 (2018), arXiv:1710.06859 [hep-ph]. Duff Neill, “Convolved Substructure: Analytically Decorrelating Jet Substructure Observables”, JHEP 05, 002 (2018), arXiv:1710.06859 [hep-ph]”。 0.41
[61] Justin Stevens and Mike Williams, “uBoost: A boosting method for producing uniform selection efficiencies from multivariate classifiers,” JINST 8, P12013 (2013), arXiv:1305.7248 [nucl-ex]. JINST 8, P12013 (2013), arXiv:1305.7248 [nucl-ex], JINST 8, P12013 (2013), arXiv:1305.7248 [nucl-ex]。
訳抜け防止モード: [61 ]Justin Stevens,Mike Williams, “uBoost : 多変量分類器から一様選択効率を創出する方法” JINST 8 P12013 (2013 ), arXiv:1305.7248 [ nucl - ex ]
0.76
[62] Chase Shimmin, Peter Sadowski, Pierre Baldi, Edison Weik, Daniel Whiteson, Edward Goul, and Andreas Søgaard, “Decorrelated Jet Substructure Tagging using Adversarial Neural Networks,” (2017), arXiv:1703.03507 [hep-ex]. 962] Chase Shimmin, Peter Sadowski, Pierre Baldi, Edison Weik, Daniel Whiteson, Edward Goul, and Andreas Søgaard, “Decorrelated Jet Substructure Tagging using Adversarial Neural Networks” (2017), arXiv:1703.03507 [hep-ex]。
訳抜け防止モード: [62 ]Chase Shimmin, Peter Sadowski, Pierre Baldi, Edison Weik, Daniel Whiteson, Edward Goul, and Andreas Søgaard 逆ニューラルネットワークによるジェットサブストラクチャタグの劣化(2017年) arXiv:1703.03507 [hep - ex ]
0.76
[63] Layne Bradshaw, Rashmish K. Mishra, Andrea Mitridate, and Bryan Ostdiek, “Mass Agnostic Jet Taggers,” (2019), arXiv:1908.08959 [hep-ph]. Layne Bradshaw, Rashmish K. Mishra, Andrea Mitridate, Bryan Ostdiek, “Mass Agnostic Jet Taggers” (2019), arXiv:1908.08959 [hep-ph]
訳抜け防止モード: [63] レイン・ブラッドショー、ラシミッシュ・k・ミシュラ、アンドレア・ミトリ立 そしてbryan ostdiek, “mass agnostic jet taggers, ”(2019年)。 arxiv:1908.08959 [hep-ph]。
0.58
[64] “Performance of mass-decorrelated jet substructure observables for hadronic two-body decay tagging in ATLAS,” ATL-PHYS-PUB-2018-01 4 (2018). ATL-PHYS-PUB-2018-01 4 (2018)。
訳抜け防止モード: [64 ]「ATLASにおけるハドロン2体崩壊タグ付けのための質量-非相関ジェットサブ構造観測器の性能」 ATL - PHYS - PUB-2018 - 014 (2018)。
0.53
[65] Gregor Kasieczka and David Shih, “DisCo Fever: Robust (2020), arXiv:2001.05310 [65] Gregor Kasieczka, David Shih, “DisCo Fever: Robust (2020), arXiv:2001.05310 0.48
Networks Through Distance Correlation,” 10.1103/PhysRevLett. 125.122001, [hep-ph]. 距離相関によるネットワーク” 10.1103/physrevlett. 125.122001, [hep-ph]。 0.61
[66] Li-Gang Xia, “QBDT, a new boosting decision tree method with systematical uncertainties into training for High Energy Physics,” Nucl. [66]Li-Gang Xia, “QBDT, a new boosting decision tree method with systematical certainties into training for High Energy Physics”. Nucl. 0.43
Instrum. Meth. A930, 15–26 (2019), arXiv:1810.08387 [physics.data-an]. インストラム メス A930, 15–26 (2019), arXiv:1810.08387[physics.data-an]。 0.43
[67] Christoph Englert, Peter Galler, Philip Harris, and Michael Spannowsky, “Machine Learning Uncertainties with Adversarial Neural Networks,” Eur. Christoph Englert氏、Peter Galler氏、Philip Harris氏、Michael Spannowsky氏は、“Machine Learning Uncertainties with Adversarial Neural Networks”と題している。 0.75
Phys. J. C79, 4 (2019), arXiv:1807.08763 [hep-ph]. Phys J. C79, 4 (2019), arXiv:1807.08763 [hep-ph]. 0.34
[68] Stefan Wunsch, Simon Jórger, Roger Wolf, and Gunter Quast, “Reducing the dependence of the neural network function to systematic uncertainties in the input space,” (2019), 10.1007/s41781-020-0 0037-9, arXiv:1907.11674 [physics.data-an]. [68] stefan wunsch氏、simon jórger氏、roger wolf氏、gunter quast氏、"入力空間の系統的不確実性へのニューラルネットワーク機能の依存を減少させる" (2019), 10.1007/s41781-020-0 0037-9, arxiv: 1907.11674 [physics.data-an]。
訳抜け防止モード: 68 ] Stefan Wunsch, Simon Jórger, Roger Wolf, Gunter Quast 入力空間における系統的な不確実性へのニューラルネットワーク機能の依存を減らす」 ( 2019 ), 10.1007 / s41781 - 020 - 00037 - 9, arXiv:1907.11674 [ Physics.data - an ]
0.74
[69] Alex Rogozhnikov, Aleksandar Bukva, V. V. Gligorov, Andrey Ustyuzhanin, and Mike Williams, “New approaches for boosting to uniformity,” JINST 10, T03002 (2015), arXiv:1410.4140 [hep-ex]. 69] Alex Rogozhnikov, Aleksandar Bukva, V. V. Gligorov, Andrey Ustyuzhanin, Mike Williams, “New Approach for boosting to uniformity), JINST 10, T03002 (2015), arXiv:1410.4140 [hep-ex]”.
訳抜け防止モード: 69]Alex Rogozhnikov, Aleksandar Bukva, V. V. Gligorov, Andrey Ustyuzhanin氏とMike Williams氏は次のように述べている。 JINST 10, T03002 (2015 ), arXiv:1410.4140 [ hep - ex ]
0.85
[70] CMS Collaboration, “A deep neural network to search for new long-lived particles decaying to jets,” Machine Learning: Science and Technology (2020), 10.1088/26322153/ab9 023, 1912.12238. 機械学習:科学と技術(2020年)、10.1088/26322153/ab9 023, 1912.12238。
訳抜け防止モード: 70 ] cmsコラボレーション,“ジェットに崩壊する新しい長寿命粒子を探索するディープニューラルネットワーク” 機械学習 : 科学技術(2020年)、10.1088/26322153 / ab9023, 1912.12238
0.79
英語(論文から抽出)日本語訳スコア
[71] Jose M. Clavijo, Paul Glaysher, [71]Jose M. Clavijo, Paul Glaysher, 0.44
and Judith M. Katzy, “Adversarial domain adaptation to reduce sample bias of a high energy physics classifier,” (2020), arXiv:2005.00568 [stat.ML]. そしてjudith m. katzy氏は、"高エネルギー物理学の分類器のサンプルバイアスを減らすための逆領域適応(adversarial domain adaptation)"(2020), arxiv:2005.00568 [stat.ml]。 0.60
[72] Gregor Kasieczka, Benjamin Nachman, Matthew D. Schwartz, and David Shih, “ABCDisCo: Automating the ABCD Method with Machine Learning,” (2020), 10.1103/PhysRevD.103 .035021, arXiv:2007.14400 [hepph]. 972] Gregor Kasieczka, Benjamin Nachman, Matthew D. Schwartz, David Shih, “ABCDisCo: Automating the ABCD Method with Machine Learning” (2020), 10.1103/PhysRevD.103 .035021, arXiv:2007.14400 [hepph]
訳抜け防止モード: 72) Gregor Kasieczka, Benjamin Nachman, Matthew D. Schwartz ABCDisCo : 機械学習によるABCD手法の自動化」とDavid Shih氏は語る。 (2020年), 10.1103 / PhysRevD.103.035021, arXiv:2007.14400 [ hepph ]
0.83
[73] Ouail Kitouni, Benjamin Nachman, Constantin Weisser, and Mike Williams, “Enhancing searches for resonances with machine learning and moment decomposition,” (2020), arXiv:2010.09745 [hep-ph]. 73] Ouail Kitouni, Benjamin Nachman, Constantin Weisser, Mike Williams, “Enhancing search for resonances with machine learning and moment decomposition” (2020), arXiv:2010.09745 [hep-ph]
訳抜け防止モード: 73]ouail kitouni、benjamin nachman、constantin weisser、 そしてmike williamsは、”機械学習とモーメント分解による共鳴の検索を強化”した。 (2020年) , arxiv: 2010.09745 [ hep - ph ]。
0.68
[74] Aishik Ghosh and Benjamin Nachman, “A Cautionary Tale of Decorrelating Theory Uncertainties,” (2021), arXiv:2109.08159 [hep-ph]. [74]Aishik Ghosh,Benjamin Nachman, “A Cautionary Tale of Decorrelating Theory Uncertainties” (2021), arXiv:2109.08159 [hep-ph]. 0.44
[75] Andrew Blance, Michael Spannowsky, and Philip Waite, “Adversarially-traine d autoencoders for robust unsupervised new physics searches,” JHEP 10, 047 (2019), arXiv:1905.10384 [hep-ph]. JHEP 10, 047 (2019), arXiv: 1905.10384 [hep-ph].[75] Andrew Blance, Michael Spannowsky, Philip Waite, “Adversarially-traine d autoencoders for robust unsupervised new Physics search”. JHEP 10, 047 (2019), arXiv: 1905.10384 [hep-ph].
訳抜け防止モード: 75]アンドリュー・ブラン、マイケル・スパンノフスキー、フィリップ・ウェイト 敵対的に - 堅牢で教師なしの新しい物理検索のためのトレーニングされたオートエンコーダ。 jhep 10, 047 (2019 ) arxiv: 1905.10384 [ hep - ph ]。
0.58
[76] Victor Estrade, Cécile Germain, Isabelle Guyon, and David Rousseau, “Systematic aware learning - A case study in High Energy Physics,” EPJ Web Conf. [76] Victor Estrade, Cécile Germain, Isabelle Guyon, David Rousseau, “Systematic aware learning - A Case Study in High Energy Physics”, EPJ Web Conf。
訳抜け防止モード: 76]Victor Estrade, Cécile Germain, Isabelle Guyon, David Rousseau, “Systematic aware learning - a case study in High Energy Physics” と題された。 EPJ Web Confの略。
0.87
214, 06024 (2019). 214, 06024 (2019). 0.42
[77] Stefan Wunsch, Simon Jörger, Roger Wolf, and Günter Quast, “Optimal statistical inference in the presence of systematic uncertainties using neural network optimization based on binned Poisson likelihoods with nuisance parameters,” (2020), 10.1007/s41781-020-0 0049-5, arXiv:2003.07186 [physics.data-an]. 10.1007/s41781-020-0 0049-5, arXiv:2003.07186 [physics.data-an] [physics.data-an]. [77] Stefan Wunsch, Simon Jörger, Roger Wolf, Günter Quast, “binned Poisson chances with nuisance parameterss” (2020), 10.1007/s41781-020-0 0049-5, arXiv:2003.07186[physics.data-an].
訳抜け防止モード: 77]Stefan Wunsch, Simon Jörger, Roger Wolf 系統的不確実性の存在における最適な統計的推測 ニューラル・ネットワークの最適化は、厄介なパラメータを持つ双対ポアソン確率に基づく。 ( 2020 ), 10.1007 / s41781 - 020 - 00049 - 5, arXiv:2003.07186 [ Physics.data - an ]
0.67
[78] A. Elwood, D. Krücker, and M. Shchedrolosiev, “Direct optimization of the discovery significance in machine learning for new physics searches in particle colliders,” J. Phys. 78] a. elwood, d. krücker, m. shchedrolosiev, “粒子衝突型加速器における新しい物理探索のための機械学習における発見の重要性の直接的最適化”、とj. physは語る。
訳抜け防止モード: [78 ] A. Elwood, D. Krücker, M. Shchedrolosiev 粒子衝突型加速器の新しい物理探索のための機械学習における発見の意義の直接最適化」 J. Phys。
0.85
Conf. Ser. 1525, 012110 (2020). Conf サー。 1525, 012110 (2020). 0.39
[79] Pablo De Castro and Tommaso Dorigo, “INFERNO: Inference-Aware Neural Optimisation,” Comput. Pablo de Castro and Tommaso Dorigo, “INFERNO: Inference-Aware Neural Optimisation”, Comput. 0.36
Phys. Commun. 244, 170–179 (2019), arXiv:1806.04743 [stat.ML]. Phys 共産。 244, 170-179 (2019), arXiv:1806.04743 [stat.ML]. 0.34
[80] Tom Charnock, Guilhem Lavaux, and Benjamin D. Wandelt, “Automatic physical inference with information maximizing neural networks,” Physical Review D 97 (2018), 10.1103/physrevd.97. 083004. [80] Tom Charnock, Guilhem Lavaux, Benjamin D. Wandelt, “Automatic physical inference with information maximizing neural network”, Physical Review D 97 (2018), 10.1103/physrevd.97. 083004。
訳抜け防止モード: [80 ] Tom Charnock, Guilhem Lavaux,Benjamin D. Wandelt, ニューラルネットワークを最大化する情報を用いた自動物理推論」物理レビューD97(2018年) 10.1103 / physrevd.97.083004。
0.75
[81] Justin Alsing and Benjamin Wandelt, “Nuisance hardened data compression for fast likelihood-free inference,” Mon. [81]Justin AlsingとBenjamin Wandeltは、“Nuisanceは高速な可能性のない推論のためのデータ圧縮を強化した。 0.64
Not. Roy. Astron. いいえ。 ロイ Astron 0.48
Soc. 488, 5093–5103 (2019), arXiv:1903.01473 [astro-ph.CO]. Soc 488, 5093–5103 (2019), arXiv:1903.01473 [astro-ph.CO]。 0.31
[82] Lukas Heinrich and Nathan Simpson, “pyhf/neos: initial [82] Lukas Heinrich と Nathan Simpson, “pyhf/neos: initial 0.48
zenodo release,” (2020). と書いた(2020年)。 0.49
[83] Sven Bollweg, Manuel Haußmann, Gregor Kasieczka, Michel Luchmann, Tilman Plehn, and Jennifer Thompson, “Deep-Learning Jets with Uncertainties and More,” SciPost Phys. Sven Bollweg, Manuel Haußmann, Gregor Kasieczka, Michel Luchmann, Tilman Plehn, Jennifer Thompson, “Deep-Learning Jets with Uncertainties and More” SciPost Phys。
訳抜け防止モード: 83] sven bollweg、manuel haußmann、gregor kasieczka michel luchmann, tilman plehn, jennifer thompson, “deep - learning jets with uncertainties and more”(英語) scipost phys の略。
0.67
8, 006 (2020), arXiv:1904.10004 [hep-ph]. 8. 006 (2020), arXiv:1904.10004 [hep-ph]。 0.43
[84] Jack Y. Araz and Michael Spannowsky, “Combine and Conquer: Event Reconstruction with Bayesian Ensemble Neural Networks,” (2021), arXiv:2102.01078 [hep-ph]. 84] jack y. arazとmichael spannowskyは、”combine and conquer: event reconstruction with bayesian ensemble neural networks” (2021), arxiv:2102.01078 [hep-ph]を書いている。 0.77
[85] Marco Bellagente, Manuel Haußmann, Michel Luchmann, and Tilman Plehn, “Understanding Event-Generation Networks via Uncertainties,” (2021), arXiv:2104.04543 [hep-ph]. [85] Marco Bellagente, Manuel Haußmann, Michel Luchmann, Tilman Plehn, “Understanding Event-Generation Networks via Uncertainties” (2021), arXiv:2104.04543 [hep-ph]。
訳抜け防止モード: [85 ]Marco Bellagente, Manuel Haußmann, Michel Luchmann, Tilman Plehn 『イベント理解-不確実性によるネットワーク生成』(2021年) arXiv:2104.04543 [hep - ph ]
0.81
[86] Benjamin Nachman, “A guide for deploying Deep Learning in LHC searches: How to achieve optimality and account for uncertainty,” (2019), 10.21468/SciPostPhys .8.6.090, arXiv:1909.03081 [hep-ph]. [86]benjamin nachman, “a guide for deploy deep learning in lhc search: how to achieve optimality and account for uncertainty” (2019), 10.21468/scipostphys .8.6.090, arxiv:1909.03081 [hep-ph]。
訳抜け防止モード: 86 ]Benjamin Nachman, “LHC検索におけるディープラーニングの展開ガイド : 最適性の実現と不確実性の説明方法” (2019) 10.21468 / SciPostPhys.8.6.090, arXiv:1909.03081 [ hep - ph ]
0.65
16 [87] Tommaso Dorigo and Pablo de Castro, “Dealing with Nuisance Parameters using Machine Learning in High Energy Physics: a Review,” (2020), arXiv:2007.09121 [stat.ML]. 16 [87]tommaso dorigoとpablo de castroは、“high energy physics: a review” (2020), arxiv:2007.09121 [stat.ml]で機械学習を使って迷惑パラメーターを処理している。
訳抜け防止モード: 16 [87 ]Tommaso Dorigo と Pablo de Castro, 高エネルギー物理における機械学習を用いたニュアンスパラメータによるディーリング a Review, ” ( 2020 ), arXiv:2007.09121 [ stat ] ML)。
0.63
[88] Aishik Ghosh, Benjamin Nachman, and Daniel Whiteson, “Uncertainty Aware Learning for High Energy Physics,” (2021), arXiv:2105.08742 [hep-ex]. [88]Aishik Ghosh,Benjamin Nachman,Daniel Whiteson, “Uncertainty Aware Learning for High Energy Physics” (2021), arXiv:2105.08742 [hep-ex]
訳抜け防止モード: [88 ]アイシク・ゴッシュ、ベンジャミン・ナックマン、ダニエル・ホワイトソン 『高エネルギー物理の不確かさ認識学習』(2021年) arXiv:2105.08742 [hep - ex ]
0.76
[89] Fraciois Chollet, “Keras,” GitHub repository (2017). 89] Fraciois Chollet, “Keras” GitHubリポジトリ(2017年)。 0.62
[90] Martín Abadi, Paul Barham, Jianmin Chen, Zhifeng Chen, Andy Davis, Jeffrey Dean, Matthieu Devin, Sanjay Ghemawat, Geoffrey Irving, Michael Isard, et al , “Tensorflow: A system for large-scale machine learning.” in OSDI, Vol. Martín Abadi氏、Paul Barham氏、Jianmin Chen氏、Zhifeng Chen氏、Andy Davis氏、Jeffrey Dean氏、Matthieu Devin氏、Sanjay Ghemawat氏、Geoffrey Irving氏、Michael Isard氏、al , “Tensorflow: A system for large-scale machine learning”, OSDI, Vol。
訳抜け防止モード: [90 ]マルティン・アバディ、ポール・バーラム、ジャンミン・チェン Zhifeng Chen, Andy Davis, Jeffrey Dean, Matthieu Devin, Sanjay Ghemawat Geoffrey Irving, Michael Isard, et al, “Tensorflow : A system for large-scale machine learning ”. OSDIでは、Vol。
0.84
16 (2016) pp. 265–283. 16 (2016) pp. 265-283。 0.79
[92] Torbjorn Sjöstrand, Stephen Mrenna, 92]Torbjorn Sjöstrand,Stephen Mrenna 0.31
[91] Diederik Kingma and Jimmy Ba, “Adam: A method for stochastic optimization,” (2014), arXiv:1412.6980 [cs]. [91] Diederik Kingma と Jimmy Ba, “Adam: A method for stochastic optimization” (2014), arXiv:1412.6980 [cs]. 0.43
and Peter Z. Skands, “PYTHIA 6.4 Physics and Manual,” JHEP 05, 026 (2006), arXiv:hep-ph/0603175 [hep-ph]. Peter Z. Skands, “PYTHIA 6.4 Physics and Manual”, JHEP 05, 026 (2006), arXiv:hep-ph/0603175 [hep-ph] 0.46
[93] Serguei Chatrchyan et al (CMS), “Measurement of the √ s = 7 TeV √ s = 0.9 TeV,” JHEP 09, 109 93] serguei chatrchyan et al (cms), “measurement of the s = 7 tev , s = 0.9 tev” jhep 09, 109 0.33
Underlying Event Activity at the LHC with and Comparison with (2011), arXiv:1107.0330 [hep-ex]. LHCでのイベントアクティビティと比較(2011年)、arXiv:1107.0330 [hep-ex] 0.62
[94] S. Agostinelli et al (GEANT4), “GEANT4–a simulation toolkit,” Nucl. [94] S. Agostinelli et al (GEANT4), “GEANT4–a Simulation Toolkit” Nucl。 0.45
Instrum. Meth. A 506, 250–303 (2003). インストラム メス A 506, 250–303 (2003)。 0.37
[95] J. Allison et al , “Geant4 developments and applications,” IEEE Transactions on Nuclear Science 53, 270– 278 (2006). J. Allison et al , “Geant4 developments and applications”, IEEE Transactions on Nuclear Science 53, 270– 278 (2006)。 0.38
[96] J. Allison et al , “Recent developments in Geant4,” Nucl. 96] j. allisonら「最近のgeant4の発展」は、nuclです。 0.55
Instrum. Meth. A 835, 186–225 (2016). インストラム メス a 835, 186-225 (2016)。 0.36
[97] S. Chatrchyan et al (CMS), “The CMS Experiment at 97] s. chatrchyan et al (cms) 「cms実験」 0.54
the CERN LHC,” JINST 3, S08004 (2008). CERN LHC”, JINST 3, S08004 (2008)。 0.73
[98] Torbjorn Sjöstrand, Stephen Mrenna, 98]Torbjorn Sjöstrand,Stephen Mrenna 0.31
and Peter Z. Skands, “A Brief Introduction to PYTHIA 8.1,” Comput. そしてpeter z. skandsは “a brief introduction to pythia 8.1” と書いている。 0.64
Phys. Commun. 178, 852 (2008), arXiv:0710.3820 [hep-ph]. Phys 共産。 178, 852 (2008), arXiv:0710.3820 [hep-ph] 0.34
[99] J. de Favereau, C. Delaere, P. Demin, A. Giammanco, V. Lemaître, A. Mertens, and M. Selvaggi (DELPHES 3), “DELPHES 3, A modular framework for fast simulation of a generic collider experiment,” JHEP 02, 057 (2014), arXiv:1307.6346 [hep-ex]. J. de Favereau, C. Delaere, P. Demin, A. Giammanco, V. Lema'tre, A. Mertens, and M. Selvaggi (DELPHES 3), "DELPHES 3, A modular framework for fast Simulation of a generic collider experiment", JHEP 02, 057 (2014), arXiv:1307.6346 [hep-ex]。
訳抜け防止モード: J. de Favereau, C. Delaere, P. Demin, A. Giammanco, V. Lema'tre, A. Mertens, M. Selvaggi (DELPHES 3 ) ジェネリックコライダー実験の高速シミュレーションのためのモジュラーフレームワーク「DELPHES 3」 JHEP 02, 057 (2014 ), arXiv:1307.6346 [ hep - ex ]
0.83
[100] Alexandre Mertens, “New features in Delphes 3,” Proceedings, 16th International workshop on Advanced Computing and Analysis Techniques in physics (ACAT 14): Prague, Czech Republic, September 1-5, 2014, J. Phys. 100] alexandre mertens, “new features in delphes 3” proceedings, 16th international workshop on advanced computing and analysis techniques in physics (acat 14): prague, czech republic, september 1-5, 2014 j. phys. (英語)
訳抜け防止モード: [100 ] Alexandre Mertens, “New features in Delphes 3” 第16回Advanced Computing and Analysis Techniques in Physics(ACAT 14)に参加して チェコ、2014年9月1日~5日、J. Phys。
0.70
Conf. Ser. 608, 012045 (2015). Conf サー。 608, 012045 (2015). 0.39
[101] Michele Selvaggi, “DELPHES 3: A modular framework for fast-simulation of generic collider experiments,” Proceedings, 15th International Workshop on Advanced Computing and Analysis Techniques in Physics Research (ACAT 2013): Beijing, China, May 16-21, 2013, J. Phys. 101] Michele Selvaggi, “DELPHES 3: a modular framework for fast-simulation of generic collider experiment” Proceedings, 15th International Workshop on Advanced Computing and Analysis Techniques in Physics Research (ACAT 2013): Beijing, China, May 16-21, 2013 J. Phys。
訳抜け防止モード: 101 ] Michele Selvaggi, “DELPHES 3 : a modular framework for fast- Simulation of generic collider experiment” 第15回先端計算・解析技術国際ワークショップ(ACAT 2013)に参加して 5月16日 - 2013年5月21日、J. Phys。
0.73
Conf. Ser. 523, 012033 (2014). Conf サー。 523, 012033 (2014). 0.39
[102] CMS Collaboration, “Simulated dataset QCD_Ptin AODSIM for 2011 collision data (SM Exclusive),” (2016), 10.7483/OPEN- 102]CMSコラボレーション, “Simulated dataset QCD_Ptin AODSIM for 2011 collision data (SM Exclusive), (2016), 10.7483/OPEN-
訳抜け防止モード: 102 ] cmsコラボレーション,“シミュレートデータセット qcd_ptin aodsim for 2011 collision data (sm exclusive )” ( 2016 ) , 10.7483 / OPEN-
0.86
1000to1400_TuneZ2_7T eV_pythia6 format CERN Open Data Portal DATA.CMS.96U2.3YAH. 1000to1400_TuneZ2_7T eV_pythia6 CERN Open Data Portal Data.CMS.96U2.3YAH 0.18
[103] CMS Collaboration, “Simulated dataset QCD_Ptin AODSIM for 2011 collision data (SM Exclusive),” (2016), 10.7483/OPEN- 103]CMSコラボレーション, “Simulated dataset QCD_Ptin AODSIM for 2011 collision data (SM Exclusive), (2016), 10.7483/OPEN-
訳抜け防止モード: 103 ] cmsコラボレーション,“シミュレートデータセット qcd_ptin aodsim for 2011 collision data (sm exclusive )” ( 2016 ) , 10.7483 / OPEN-
0.86
1400to1800_TuneZ2_7T eV_pythia6 format CERN Open Data Portal DATA.CMS.RC9V.B5KX. 1400to1800_TuneZ2_7T eV_pythia6 CERN Open Data Portal Data.CMS.RC9V.B5KX 0.17
[104] CMS Collaboration, “Simulated dataset QCD_Ptin AODSIM for(SM Exclusive),” [104]CMSコラボレーション, “Simulated dataset QCD_Ptin AODSIM for(SM Exclusive)” 0.87
1800_TuneZ2_7TeV_pyt hia6 mat 1800_TuneZ2_7TeV_pyt hia6マット 0.28
collision data 2011 衝突データ 2011 0.61
for ですから 0.55
英語(論文から抽出)日本語訳スコア
CERN Open Data Portal DATA.CMS.CX2X.J3KW. CERN Open Data Portal Data.CMS.CX2X.J3KW 0.25
(2016), 10.7483/OPEN- (2016年)10.7483/OPEN 0.47
[105] Patrick T. Komiske, Radha Mastandrea, Eric M. Metodiev, Preksha Naik, and Jesse Thaler, “Exploring the Space of Jets with CMS Open Data,” Phys. 105]patrick t. komiske氏、radha mastandrea氏、eric m. metodiev氏、preksha naik氏、jesse thaler氏、"cmsオープンデータでジェットの空間を探索する"とphys氏は述べている。
訳抜け防止モード: 105 ]Patrick T. Komiske, Radha Mastandrea, Eric M. Metodiev, Preksha NaikとJesse Thalerは、こう語る。 CMS Open Dataでジェットの空間を探索する”、とPhysは語る。
0.85
Rev. D 101, 034009 (2020), arXiv:1908.08542 [hep-ph]. D 101, 034009 (2020), arXiv:1908.08542 [hep-ph]. 0.46
[106] Patrick Komiske, Radha Mastandrea, Eric Metodiev, Preksha Naik, and Jesse Thaler, “CMS 2011A Simulation | Pythia 6 QCD 1000-1400 | pT > 375 GeV | MOD HDF5 Format,” (2019). 106] Patrick Komiske, Radha Mastandrea, Eric Metodiev, Preksha Naik, and Jesse Thaler, “CMS 2011A Simulation | Pythia 6 QCD 1000-1400 | pT > 375 GeV | MOD HDF5 Format” (2019年) 0.43
[107] Patrick Komiske, Radha Mastandrea, Eric Metodiev, Preksha Naik, and Jesse Thaler, “CMS 2011A Simulation | Pythia 6 QCD 1400-1800 | pT > 375 GeV | MOD HDF5 Format,” (2019). 107] Patrick Komiske, Radha Mastandrea, Eric Metodiev, Preksha Naik, and Jesse Thaler, “CMS 2011A Simulation | Pythia 6 QCD 1400-1800 | pT > 375 GeV | MOD HDF5 Format” (2019年) 0.43
[108] Patrick Komiske, Radha Mastandrea, Eric Metodiev, Preksha Naik, and Jesse Thaler, “CMS 2011A Simulation | Pythia 6 QCD1800-inf | pT > 375 GeV | MOD HDF5 Format,” (2019). 108] Patrick Komiske, Radha Mastandrea, Eric Metodiev, Preksha Naik, and Jesse Thaler, “CMS 2011A Simulation | Pythia 6 QCD1800-inf | pT > 375 GeV | MOD HDF5 Format” (2019年) 0.44
[109] G. Kasieczka, B. Nachman, and D. Shih, “Neural (2021), arXiv:2107.08979 [109]G. Kasieczka, B. Nachman, D. Shih, “Neural (2021), arXiv:2107.08979 0.46
Conditional Reweighting,” [physics.data-an]. 条件付きリウェイト”[physics.data-an]。 0.68
dataset,” (2021). データセット” (2021年)。 0.72
[110] Benjamin Nachman and Jesse Thaler, “Delphes dijet [110]Benjamin NachmanとJesse Thaler, “Delphes dijet” 0.42
[111] Matteo Cacciari, Gavin P. Salam, and Gregory Soyez, “FastJet User Manual,” Eur. Matteo Cacciari, Gavin P. Salam, and Gregory Soyez, “FastJet User Manual”, Eur. 0.35
Phys. J. C72, 1896 (2012), arXiv:1111.6097 [hep-ph]. Phys J. C72, 1896 (2012), arXiv:1111.6097 [hep-ph]. 0.34
[112] Matteo Cacciari and Gavin P. Salam, “Dispelling the N 3 myth for the kt jet-finder,” Phys. 112]matteo cacciariとgavin p. salamは、“ktジェットファインダーのn3神話を解き放つ”、と言っている。 0.57
Lett. B641, 57 (2006), arXiv:hep-ph/0512210 [hep-ph]. Lett! B641, 57 (2006), arXiv:hep-ph/0512210 [hep-ph]。 0.36
[113] Matteo Cacciari, Gavin P. Salam, and Gregory Soyez, “The anti-kt jet clustering algorithm,” JHEP 04, 063 113] Matteo Cacciari, Gavin P. Salam, and Gregory Soyez, “The anti-kt jet clustering algorithm” JHEP 04, 063
訳抜け防止モード: 113 ]matteo cacciari、gavin p. salam、gregory soyez。 「アンチ-ktジェットクラスタリングアルゴリズム」jhep 04,063
0.53
17 (2008), arXiv:0802.1189 [hep-ph]. 17 (2008) arXiv:0802.1189 [hep-ph] 0.40
[114] Ouail Kitouni, Benjamin Nachman, Constantin Weisser, and Mike Williams, “Enhancing searches for resonances with machine learning and moment decomposition,” Journal of High Energy Physics 2021 (2021), 10.1007/jhep04(2021) 070. Journal of High Energy Physics 2021 (2021), 10.1007/jhep04(2021) 070,"[114] Ouail Kitouni, Benjamin Nachman, Constantin Weisser, Mike Williams, “Enhancing searchs with resonances with machine learning and moment decomposition”. “Journal of High Energy Physics 2021 (2021), 10.1007/jhep04(2021) 070”.
訳抜け防止モード: [114 ]Ouail Kitouni,Benjamin Nachman,Constantin Weisser, とMike Williamsは語る。 機械学習とモーメント分解による共鳴の探索を強化する”。 Journal of High Energy Physics 2021 (2021 ) 10.1007 / jhep04(2021)070 。
0.86
[115] Thomas Kluyver, Benjamin Ragan-Kelley, Fernando Pérez, Brian Granger, Matthias Bussonnier, Jonathan Frederic, Kyle Kelley, Jessica Hamrick, Jason Grout, Sylvain Corlay, Paul Ivanov, Damián Avila, Safia Abdalla, and Carol Willing, “Jupyter notebooks – a publishing format for reproducible computational workflows,” in Positioning and Power in Academic Publishing: Players, Agents and Agendas, edited by F. Loizides and B. Schmidt (IOS Press, 2016) pp. 87 – 90. Thomas Kluyver氏、Benjamin Ragan-Kelley氏、Fernando Pérez氏、Brian Granger氏、Matthias Bussonnier氏、Jonathan Frederic氏、Kyle Kelley氏、Jessica Hamrick氏、Jason Grout氏、Sylvain Corlay氏、Paul Ivanov氏、Damián Avila氏、Safia Abdalla氏、Carol Willing氏、"Jupyter notebooks – reproducible workflow workflows" in Academic Publishing: positioning and Power in Academic Publishing: Players, Agents and Agendas,Edit by F. Loizides and B. Schmidt (IOS Press, 2016) pp. 87 - 90。
訳抜け防止モード: [115 ]Thomas Kluyver, Benjamin Ragan - Kelley, Fernando Pérez, Brian Granger, Matthias Bussonnier, Jonathan Frederic, Kyle Kelley Jessica Hamrick, Jason Grout, Sylvain Corlay, Paul Ivanov Damián Avila, Safia Abdalla, Carol Willing, “Jupyter Notebooks – 再現可能な計算ワークフローのパブリッシングフォーマット。 学術出版における「位置づけと力」 : プレイヤー・エージェント・アジェンダ 編集: F. Loizides and B. Schmidt (IOS Press, 2016 ) pp. 87 - 90 。
0.81
[116] Charles R. Harris, K. Jarrod Millman, St’efan J. van der Walt, Ralf Gommers, Pauli Virtanen, David Cournapeau, Eric Wieser, Julian Taylor, Sebastian Berg, Nathaniel J. Smith, Robert Kern, Matti Picus, Stephan Hoyer, Marten H. van Kerkwijk, Matthew Brett, Allan Haldane, Jaime Fern’andez del R’ıo, Mark Wiebe, Pearu Peterson, Pierre G’erard-Marchant, Kevin Sheppard, Tyler Reddy, Warren Weckesser, Hameer Abbasi, Christoph Gohlke, and Travis E. Oliphant, “Array programming with NumPy,” Nature 585, 357–362 (2020). [116] Charles R. Harris, K. Jarrod Millman, St’efan J. van der Walt, Ralf Gommers, Pauli Virtanen, David Cournapeau, Eric Wieser, Julian Taylor, Sebastian Berg, Nathaniel J. Smith, Robert Kern, Matti Picus, Stephan Hoyer, Marten H. van Kerkwijk, Matthew Brett, Allan Haldane, Jaime Fern’andez del R’ıo, Mark Wiebe, Pearu Peterson, Pierre G’erard-Marchant, Kevin Sheppard, Tyler Reddy, Warren Weckesser, Hameer Abbasi, Christoph Gohlke, and Travis E. Oliphant, “Array programming with NumPy,” Nature 585, 357–362 (2020).
訳抜け防止モード: 116 ]charles r. harris, k. jarrod millman, st’efan j. van der walt, ralf gommers. pauli virtanen、david cournapeau、eric wieser、julian taylor。 セバスチャン・バーグ、ナサニエル・j・スミス、ロバート・カーン、マッティ・ピカス stephan hoyer氏、marten h. van kerkwijk氏、matthew brett氏、allan haldane氏、jaime fern’andez del r'ıo氏。 mark wiebe, pearu peterson, pierre g’erard - マーチャント、ケビン・シェパード。 タイラー・レディー、ウォーレン・ウェッケスター、ハメイヤー・アブバシ、クリストフ・ゴルケ そしてtravis e. oliphant, “ array programming with numpy, ” nature 585”。 357–362 ( 2020 ) .
0.76
[117] J. D. Hunter, “Matplotlib: A 2d graphics environment,” Computing in Science & Engineering 9, 90–95 (2007). 117] j. d. hunter, “matplotlib: a 2d graphics environment”, computing in science & engineering 9, 90–95 (2007)。
訳抜け防止モード: 117 ] j. d. hunter, "matplotlib : a 2d graphics environment" 科学と工学のコンピューティング 9, 90-95 (2007)。
0.83
                                   ページの最初に戻る

翻訳にはFugu-Machine Translatorを利用しています。