論文の概要: Machine-Learned Exclusion Limits without Binning
- arxiv url: http://arxiv.org/abs/2211.04806v1
- Date: Wed, 9 Nov 2022 11:04:50 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-10 16:37:15.626998
- Title: Machine-Learned Exclusion Limits without Binning
- Title(参考訳): バインディングなしの機械学習排他限界
- Authors: Ernesto Arganda, Andres D. Perez, Martin de los Rios, Rosa Mar\'ia
Sand\'a Seoane
- Abstract要約: 排除仮説テストを含め,MLL法を拡張した。
Kernel Density Estimatorの追加により、分類器出力をバイナリ化する必要がなくなる。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Machine-Learned Likelihoods (MLL) is a method that, by combining modern
machine-learning classification techniques with likelihood-based inference
tests, allows to estimate the experimental sensitivity of high-dimensional data
sets. We extend the MLL method by including the exclusion hypothesis tests and
show that the addition of Kernel Density Estimators avoids the need to bin the
classifier output in order to extract the resulting one-dimensional signal and
background probability density functions. We first test our method on toy
models generated with multivariate Gaussian distributions, where the true
probability distribution functions are known. We then apply it to a case of
interest in the search for new physics at the HL-LHC, in which a $Z^\prime$
boson decays into lepton pairs, comparing the performance of our method for
estimating 95\% CL exclusion limits to the results obtained applying a binned
likelihood to the machine-learning classifier output.
- Abstract(参考訳): MLL(Machine-Learned Likelihoods)は、現代の機械学習分類技術と確率に基づく推論テストを組み合わせることで、高次元データセットの実験感度を推定する手法である。
排除仮説テストを含むmll法を拡張し,カーネル密度推定器の追加により,結果の1次元信号と背景確率密度関数を抽出するために,分類器出力をビン化する必要がなくなることを示した。
まず,実確率分布関数が知られている多変量ガウス分布で生成された玩具モデルについて実験を行った。
次に, hl-lhc における新物理学探索において, $z^\prime$ boson がレプトン対に崩壊する場合に適用し, 95\% cl 排他限界を推定する手法の性能と, 機械学習分類器出力にビン化確率を適用した結果との比較を行った。
関連論文リスト
- Empirical Density Estimation based on Spline Quasi-Interpolation with
applications to Copulas clustering modeling [0.0]
密度推定は、様々な分野において、基礎となるデータの分布をモデル化し理解するための基礎的な手法である。
本稿では,擬似補間による密度の単変量近似を提案する。
提案アルゴリズムは人工データセットと実データセットで検証される。
論文 参考訳(メタデータ) (2024-02-18T11:49:38Z) - Gaussian Mixture Solvers for Diffusion Models [84.83349474361204]
本稿では,拡散モデルのためのGMSと呼ばれる,SDEに基づく新しい解法について紹介する。
画像生成およびストロークベース合成におけるサンプル品質の観点から,SDEに基づく多くの解法よりも優れる。
論文 参考訳(メタデータ) (2023-11-02T02:05:38Z) - Noise-Free Sampling Algorithms via Regularized Wasserstein Proximals [3.4240632942024685]
ポテンシャル関数が支配する分布からサンプリングする問題を考察する。
本研究は, 決定論的な楽譜に基づくMCMC法を提案し, 粒子に対する決定論的進化をもたらす。
論文 参考訳(メタデータ) (2023-08-28T23:51:33Z) - Estimating Joint Probability Distribution With Low-Rank Tensor
Decomposition, Radon Transforms and Dictionaries [3.0892724364965005]
本報告では, 混合成分の少ない製品密度の混合として, 基礎となる分布を分解できることを仮定して, データサンプルから結合確率密度を推定する手法について述べる。
1-次元の密度を表す辞書と、1-次元の辺りから合同分布を推定するランダムな投影という2つの重要なアイデアを組み合わせる。
提案アルゴリズムは, 従来の辞書を用いた手法に比べて, サンプルの複雑さの向上に有効である。
論文 参考訳(メタデータ) (2023-04-18T05:37:15Z) - Monte Carlo Neural PDE Solver for Learning PDEs via Probabilistic Representation [59.45669299295436]
教師なしニューラルソルバのトレーニングのためのモンテカルロPDEソルバを提案する。
我々は、マクロ現象をランダム粒子のアンサンブルとみなすPDEの確率的表現を用いる。
対流拡散, アレン・カーン, ナヴィエ・ストークス方程式に関する実験により, 精度と効率が著しく向上した。
論文 参考訳(メタデータ) (2023-02-10T08:05:19Z) - Joint Probability Estimation Using Tensor Decomposition and Dictionaries [3.4720326275851994]
本研究では, 与えられた離散確率と連続確率変数の連立確率の非パラメトリック推定を, それらの(経験的推定)2次元境界値から検討した。
我々は、データを調べて分布の様々なファミリーの辞書を作成し、それを混合した製品の各分解因子を近似するために利用する。
論文 参考訳(メタデータ) (2022-03-03T11:55:51Z) - A blob method method for inhomogeneous diffusion with applications to
multi-agent control and sampling [0.6562256987706128]
重み付き多孔質媒質方程式(WPME)に対する決定論的粒子法を開発し,その収束性を時間間隔で証明する。
提案手法は,マルチエージェントカバレッジアルゴリズムや確率測定のサンプリングに自然に応用できる。
論文 参考訳(メタデータ) (2022-02-25T19:49:05Z) - A Robust and Flexible EM Algorithm for Mixtures of Elliptical
Distributions with Missing Data [71.9573352891936]
本稿では、ノイズや非ガウス的なデータに対するデータ計算の欠如に対処する。
楕円分布と潜在的な欠落データを扱う特性を混合した新しいEMアルゴリズムについて検討した。
合成データの実験的結果は,提案アルゴリズムが外れ値に対して頑健であり,非ガウスデータで使用可能であることを示す。
論文 参考訳(メタデータ) (2022-01-28T10:01:37Z) - Sampling from Arbitrary Functions via PSD Models [55.41644538483948]
まず確率分布をモデル化し,そのモデルからサンプリングする。
これらのモデルでは, 少数の評価値を用いて, 高精度に多数の密度を近似することが可能であることが示され, それらのモデルから効果的にサンプルする簡単なアルゴリズムが提示される。
論文 参考訳(メタデータ) (2021-10-20T12:25:22Z) - A Note on Optimizing Distributions using Kernel Mean Embeddings [94.96262888797257]
カーネル平均埋め込みは、その無限次元平均埋め込みによる確率測度を表す。
カーネルが特徴的である場合、カーネルの総和密度を持つ分布は密度が高いことを示す。
有限サンプル設定でそのような分布を最適化するアルゴリズムを提供する。
論文 参考訳(メタデータ) (2021-06-18T08:33:45Z) - Generative Modeling with Denoising Auto-Encoders and Langevin Sampling [88.83704353627554]
DAEとDSMの両方がスムーズな人口密度のスコアを推定することを示した。
次に、この結果をarXiv:1907.05600のホモトピー法に適用し、その経験的成功を理論的に正当化する。
論文 参考訳(メタデータ) (2020-01-31T23:50:03Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。