論文の概要: Machine-Learned Exclusion Limits without Binning
- arxiv url: http://arxiv.org/abs/2211.04806v2
- Date: Fri, 15 Dec 2023 11:40:58 GMT
- ステータス: 処理完了
- システム内更新日: 2023-12-18 20:00:33.039925
- Title: Machine-Learned Exclusion Limits without Binning
- Title(参考訳): バインディングなしの機械学習排他限界
- Authors: Ernesto Arganda, Andres D. Perez, Martin de los Rios, Rosa Mar\'ia
Sand\'a Seoane
- Abstract要約: 我々は、1次元信号と背景確率密度関数を抽出するためにカーネル密度推定器(KDE)を含むMLL法を拡張した。
本手法は,レプトン対に崩壊するエキゾチックヒッグス粒子の探索と,レプトン対に崩壊するZ'$ボソンの2例に適用する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Machine-Learned Likelihoods (MLL) combines machine-learning classification
techniques with likelihood-based inference tests to estimate the experimental
sensitivity of high-dimensional data sets. We extend the MLL method by
including Kernel Density Estimators (KDE) to avoid binning the classifier
output to extract the resulting one-dimensional signal and background
probability density functions. We first test our method on toy models generated
with multivariate Gaussian distributions, where the true probability
distribution functions are known. Later, we apply the method to two cases of
interest at the LHC: a search for exotic Higgs bosons, and a $Z'$ boson
decaying into lepton pairs. In contrast to physical-based quantities, the
typical fluctuations of the ML outputs give non-smooth probability
distributions for pure-signal and pure-background samples. The non-smoothness
is propagated into the density estimation due to the good performance and
flexibility of the KDE method. We study its impact on the final significance
computation, and we compare the results using the average of several
independent ML output realizations, which allows us to obtain smoother
distributions. We conclude that the significance estimation turns out to be not
sensible to this issue.
- Abstract(参考訳): MLL(Machine-Learned Likelihoods)は、機械学習の分類手法と確率に基づく推論テストを組み合わせて、高次元データセットの実験感度を推定する。
本研究では,カーネル密度推定器(kde)を含むmll法を拡張し,分類器出力のバイナリ化を回避し,得られた1次元信号と背景確率密度関数を抽出する。
まず,実確率分布関数が知られている多変量ガウス分布で生成された玩具モデルについて実験を行った。
後に、この手法をLHCにおける2つの興味ある事例に適用する:エキゾチックなヒッグス粒子の探索と、レプトン対に崩壊するZ'$ボソンである。
物理量とは対照的に、ML出力の典型的なゆらぎは純粋信号および純粋背景サンプルに対して非滑らかな確率分布を与える。
非平滑性はKDE法の性能と柔軟性のために密度推定に伝播する。
最終有意性計算への影響について検討し,複数の独立ml出力実現平均を用いて結果を比較することにより,よりスムーズな分布を得ることができた。
重要度推定はこの問題には適さないと結論付けている。
関連論文リスト
- Empirical Density Estimation based on Spline Quasi-Interpolation with
applications to Copulas clustering modeling [0.0]
密度推定は、様々な分野において、基礎となるデータの分布をモデル化し理解するための基礎的な手法である。
本稿では,擬似補間による密度の単変量近似を提案する。
提案アルゴリズムは人工データセットと実データセットで検証される。
論文 参考訳(メタデータ) (2024-02-18T11:49:38Z) - Gaussian Mixture Solvers for Diffusion Models [84.83349474361204]
本稿では,拡散モデルのためのGMSと呼ばれる,SDEに基づく新しい解法について紹介する。
画像生成およびストロークベース合成におけるサンプル品質の観点から,SDEに基づく多くの解法よりも優れる。
論文 参考訳(メタデータ) (2023-11-02T02:05:38Z) - Noise-Free Sampling Algorithms via Regularized Wasserstein Proximals [3.4240632942024685]
ポテンシャル関数が支配する分布からサンプリングする問題を考察する。
本研究は, 決定論的な楽譜に基づくMCMC法を提案し, 粒子に対する決定論的進化をもたらす。
論文 参考訳(メタデータ) (2023-08-28T23:51:33Z) - Estimating Joint Probability Distribution With Low-Rank Tensor
Decomposition, Radon Transforms and Dictionaries [3.0892724364965005]
本報告では, 混合成分の少ない製品密度の混合として, 基礎となる分布を分解できることを仮定して, データサンプルから結合確率密度を推定する手法について述べる。
1-次元の密度を表す辞書と、1-次元の辺りから合同分布を推定するランダムな投影という2つの重要なアイデアを組み合わせる。
提案アルゴリズムは, 従来の辞書を用いた手法に比べて, サンプルの複雑さの向上に有効である。
論文 参考訳(メタデータ) (2023-04-18T05:37:15Z) - Monte Carlo Neural PDE Solver for Learning PDEs via Probabilistic Representation [59.45669299295436]
教師なしニューラルソルバのトレーニングのためのモンテカルロPDEソルバを提案する。
我々は、マクロ現象をランダム粒子のアンサンブルとみなすPDEの確率的表現を用いる。
対流拡散, アレン・カーン, ナヴィエ・ストークス方程式に関する実験により, 精度と効率が著しく向上した。
論文 参考訳(メタデータ) (2023-02-10T08:05:19Z) - Joint Probability Estimation Using Tensor Decomposition and Dictionaries [3.4720326275851994]
本研究では, 与えられた離散確率と連続確率変数の連立確率の非パラメトリック推定を, それらの(経験的推定)2次元境界値から検討した。
我々は、データを調べて分布の様々なファミリーの辞書を作成し、それを混合した製品の各分解因子を近似するために利用する。
論文 参考訳(メタデータ) (2022-03-03T11:55:51Z) - A blob method method for inhomogeneous diffusion with applications to
multi-agent control and sampling [0.6562256987706128]
重み付き多孔質媒質方程式(WPME)に対する決定論的粒子法を開発し,その収束性を時間間隔で証明する。
提案手法は,マルチエージェントカバレッジアルゴリズムや確率測定のサンプリングに自然に応用できる。
論文 参考訳(メタデータ) (2022-02-25T19:49:05Z) - A Robust and Flexible EM Algorithm for Mixtures of Elliptical
Distributions with Missing Data [71.9573352891936]
本稿では、ノイズや非ガウス的なデータに対するデータ計算の欠如に対処する。
楕円分布と潜在的な欠落データを扱う特性を混合した新しいEMアルゴリズムについて検討した。
合成データの実験的結果は,提案アルゴリズムが外れ値に対して頑健であり,非ガウスデータで使用可能であることを示す。
論文 参考訳(メタデータ) (2022-01-28T10:01:37Z) - Sampling from Arbitrary Functions via PSD Models [55.41644538483948]
まず確率分布をモデル化し,そのモデルからサンプリングする。
これらのモデルでは, 少数の評価値を用いて, 高精度に多数の密度を近似することが可能であることが示され, それらのモデルから効果的にサンプルする簡単なアルゴリズムが提示される。
論文 参考訳(メタデータ) (2021-10-20T12:25:22Z) - A Note on Optimizing Distributions using Kernel Mean Embeddings [94.96262888797257]
カーネル平均埋め込みは、その無限次元平均埋め込みによる確率測度を表す。
カーネルが特徴的である場合、カーネルの総和密度を持つ分布は密度が高いことを示す。
有限サンプル設定でそのような分布を最適化するアルゴリズムを提供する。
論文 参考訳(メタデータ) (2021-06-18T08:33:45Z) - Generative Modeling with Denoising Auto-Encoders and Langevin Sampling [88.83704353627554]
DAEとDSMの両方がスムーズな人口密度のスコアを推定することを示した。
次に、この結果をarXiv:1907.05600のホモトピー法に適用し、その経験的成功を理論的に正当化する。
論文 参考訳(メタデータ) (2020-01-31T23:50:03Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。