論文の概要: An unfolding method based on conditional Invertible Neural Networks
(cINN) using iterative training
- arxiv url: http://arxiv.org/abs/2212.08674v3
- Date: Wed, 10 Jan 2024 20:36:42 GMT
- ステータス: 処理完了
- システム内更新日: 2024-01-13 04:32:55.948013
- Title: An unfolding method based on conditional Invertible Neural Networks
(cINN) using iterative training
- Title(参考訳): 反復学習を用いた条件付き可逆ニューラルネットワーク(cINN)に基づく展開法
- Authors: Mathias Backes, Anja Butter, Monica Dunford and Bogdan Malaescu
- Abstract要約: 非可逆ニューラルネットワーク(INN)のような生成ネットワークは確率的展開を可能にする。
模擬トレーニングサンプルとデータ間のずれを調整した展開のための反復条件INN(IcINN)を導入する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The unfolding of detector effects is crucial for the comparison of data to
theory predictions. While traditional methods are limited to representing the
data in a low number of dimensions, machine learning has enabled new unfolding
techniques while retaining the full dimensionality. Generative networks like
invertible neural networks~(INN) enable a probabilistic unfolding, which map
individual events to their corresponding unfolded probability distribution. The
accuracy of such methods is however limited by how well simulated training
samples model the actual data that is unfolded. We introduce the iterative
conditional INN~(IcINN) for unfolding that adjusts for deviations between
simulated training samples and data. The IcINN unfolding is first validated on
toy data and then applied to pseudo-data for the $pp \to Z \gamma \gamma$
process.
- Abstract(参考訳): 検出器効果の展開は、データと理論予測を比較する上で重要である。
従来の手法は低次元のデータ表現に限られているが、機械学習は全次元を維持しながら新しい展開技術を実現している。
invertible neural networks~(inn)のような生成ネットワークは、個々の事象を対応する展開確率分布にマッピングする確率的展開を可能にする。
しかしながら、そのような手法の精度は、実際に展開されたデータをシミュレーションしたトレーニングサンプルの精度によって制限される。
模擬トレーニングサンプルとデータ間のずれを調整した展開のための反復条件 INN~(IcINN) を導入する。
IcINN展開はまずおもちゃのデータで検証され、その後$pp \to Z \gamma \gamma$プロセスの擬似データに適用される。
関連論文リスト
- A variational neural Bayes framework for inference on intractable posterior distributions [1.0801976288811024]
トレーニングされたニューラルネットワークに観測データを供給することにより、モデルパラメータの後方分布を効率的に取得する。
理論的には、我々の後部はKulback-Leiblerの発散において真の後部に収束することを示す。
論文 参考訳(メタデータ) (2024-04-16T20:40:15Z) - Towards Theoretical Understandings of Self-Consuming Generative Models [56.84592466204185]
本稿では,自己消費ループ内で生成モデルを訓練する新たな課題に取り組む。
我々は,このトレーニングが将来のモデルで学習したデータ分布に与える影響を厳格に評価するための理論的枠組みを構築した。
カーネル密度推定の結果は,混合データトレーニングがエラー伝播に与える影響など,微妙な洞察を与える。
論文 参考訳(メタデータ) (2024-02-19T02:08:09Z) - Fast, Distribution-free Predictive Inference for Neural Networks with
Coverage Guarantees [25.798057062452443]
本稿では,予測推論(PI)のための新しい計算効率アルゴリズムを提案する。
データに対する分布的な仮定は不要で、ニューラルネットワークの既存のブートストラップ方式よりも高速に計算できる。
論文 参考訳(メタデータ) (2023-06-11T04:03:58Z) - Learning from Data with Noisy Labels Using Temporal Self-Ensemble [11.245833546360386]
ディープニューラルネットワーク(DNN)はノイズラベルを記憶する膨大な能力を持つ。
現在最先端の手法では、損失の少ないサンプルを用いて二重ネットワークを訓練するコトレーニング方式が提案されている。
本稿では,単一のネットワークのみをトレーニングすることで,シンプルで効果的なロバストトレーニング手法を提案する。
論文 参考訳(メタデータ) (2022-07-21T08:16:31Z) - Reduced Robust Random Cut Forest for Out-Of-Distribution detection in
machine learning models [0.799536002595393]
ほとんどの機械学習ベースの回帰器は、限られた長さの過去の観測を通して収集されたデータから情報を抽出し、将来予測する。
これらのトレーニングモデルへの入力は、トレーニングに使用されるデータと統計特性が著しく異なるデータである場合、正確な予測は保証されない。
本稿では,ロバストランダムカットフォレストデータ構造を用いた新しい検出手法を提案する。
論文 参考訳(メタデータ) (2022-06-18T17:01:40Z) - NUQ: Nonparametric Uncertainty Quantification for Deterministic Neural
Networks [151.03112356092575]
本研究では,Nadaraya-Watson の条件付きラベル分布の非パラメトリック推定に基づく分類器の予測の不確かさの測定方法を示す。
種々の実世界の画像データセットにおける不確実性推定タスクにおいて,本手法の強い性能を示す。
論文 参考訳(メタデータ) (2022-02-07T12:30:45Z) - Transformers Can Do Bayesian Inference [56.99390658880008]
我々はPFN(Presideed Data Fitted Networks)を提案する。
PFNは、大規模機械学習技術におけるインコンテキスト学習を活用して、大規模な後部集合を近似する。
我々は、PFNがガウス過程をほぼ完璧に模倣し、難解問題に対する効率的なベイズ推定を可能にすることを示した。
論文 参考訳(メタデータ) (2021-12-20T13:07:39Z) - Improving Uncertainty Calibration via Prior Augmented Data [56.88185136509654]
ニューラルネットワークは、普遍関数近似器として機能することで、複雑なデータ分布から学習することに成功した。
彼らはしばしば予測に自信過剰であり、不正確で誤った確率的予測に繋がる。
本稿では,モデルが不当に過信である特徴空間の領域を探索し,それらの予測のエントロピーをラベルの以前の分布に対して条件的に高める手法を提案する。
論文 参考訳(メタデータ) (2021-02-22T07:02:37Z) - Statistical model-based evaluation of neural networks [74.10854783437351]
ニューラルネットワーク(NN)の評価のための実験装置を開発する。
このセットアップは、NNs vis-a-vis minimum-mean-square-error (MMSE)パフォーマンス境界のベンチマークに役立つ。
これにより、トレーニングデータサイズ、データ次元、データ幾何学、ノイズ、トレーニング条件とテスト条件のミスマッチの影響をテストできます。
論文 参考訳(メタデータ) (2020-11-18T00:33:24Z) - Theoretical Analysis of Self-Training with Deep Networks on Unlabeled
Data [48.4779912667317]
自己学習アルゴリズムは、ニューラルネットワークを使ってラベルのないデータで学ぶことに成功している。
この研究は、半教師なし学習、教師なしドメイン適応、教師なし学習のための深層ネットワークによる自己学習の統一的理論的解析を提供する。
論文 参考訳(メタデータ) (2020-10-07T19:43:55Z) - The Gaussian equivalence of generative models for learning with shallow
neural networks [30.47878306277163]
本研究では,事前学習した生成モデルから得られたデータに基づいて学習したニューラルネットワークの性能について検討する。
この等価性を裏付ける厳密で解析的で数値的な証拠を3本提供します。
これらの結果は、現実的なデータを持つ機械学習モデルの理論研究への有効な道を開く。
論文 参考訳(メタデータ) (2020-06-25T21:20:09Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。