論文の概要: Improving Generative Model-based Unfolding with Schr\"{o}dinger Bridges
- arxiv url: http://arxiv.org/abs/2308.12351v2
- Date: Fri, 22 Sep 2023 17:28:21 GMT
- ステータス: 処理完了
- システム内更新日: 2023-09-25 18:03:26.923875
- Title: Improving Generative Model-based Unfolding with Schr\"{o}dinger Bridges
- Title(参考訳): Schr\"{o}dinger Bridgeによる生成モデルベース展開の改善
- Authors: Sascha Diefenbacher, Guan-Horng Liu, Vinicius Mikuni, Benjamin
Nachman, and Weili Nie
- Abstract要約: 機械学習に基づく展開により、未結合かつ高次元の断面積測定が可能になった。
我々はシュレーディンガーブリッジと拡散モデルを用いてSBUnfoldを作成することを提案する。
SBUnfoldは,合成Z+jetsデータセット上でのアート手法の状態と比較して,優れた性能を示すことを示す。
- 参考スコア(独自算出の注目度): 14.989614554242229
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Machine learning-based unfolding has enabled unbinned and high-dimensional
differential cross section measurements. Two main approaches have emerged in
this research area: one based on discriminative models and one based on
generative models. The main advantage of discriminative models is that they
learn a small correction to a starting simulation while generative models scale
better to regions of phase space with little data. We propose to use
Schroedinger Bridges and diffusion models to create SBUnfold, an unfolding
approach that combines the strengths of both discriminative and generative
models. The key feature of SBUnfold is that its generative model maps one set
of events into another without having to go through a known probability density
as is the case for normalizing flows and standard diffusion models. We show
that SBUnfold achieves excellent performance compared to state of the art
methods on a synthetic Z+jets dataset.
- Abstract(参考訳): 機械学習に基づく展開により、未結合かつ高次元の断面積測定が可能になった。
この研究領域では、識別モデルに基づくものと生成モデルに基づくものという2つの主要なアプローチが登場している。
判別モデルの主な利点は、開始シミュレーションに対する小さな補正を学習し、生成モデルは少ないデータで位相空間の領域に対してよりよくスケールする。
本研究では, シュレーディンガー橋と拡散モデルを用いて, 判別モデルと生成モデルの強みを結合した, sbunfold を作成することを提案する。
スバンフォールドの重要な特徴は、その生成モデルが流れの正規化や標準拡散モデルのように既知の確率密度を通さずに、ある事象の組を別の事象にマッピングすることである。
SBUnfoldは,合成Z+jetsデータセット上でのアート手法の状態と比較して優れた性能を示す。
関連論文リスト
- Bridging Model-Based Optimization and Generative Modeling via Conservative Fine-Tuning of Diffusion Models [54.132297393662654]
本稿では,RLによる報酬モデルの最適化により,最先端拡散モデルを微調整するハイブリッド手法を提案する。
我々は、報酬モデルの補間能力を活用し、オフラインデータにおいて最良の設計を上回るアプローチの能力を実証する。
論文 参考訳(メタデータ) (2024-05-30T03:57:29Z) - Self-Play Fine-Tuning of Diffusion Models for Text-to-Image Generation [59.184980778643464]
ファインチューニング拡散モデル : 生成人工知能(GenAI)の最前線
本稿では,拡散モデル(SPIN-Diffusion)のための自己演奏ファインチューニングという革新的な手法を紹介する。
提案手法は従来の教師付き微調整とRL戦略の代替として,モデル性能とアライメントの両方を大幅に改善する。
論文 参考訳(メタデータ) (2024-02-15T18:59:18Z) - Discrete Diffusion Modeling by Estimating the Ratios of the Data Distribution [67.9215891673174]
離散空間に対するスコアマッチングを自然に拡張する新たな損失として,スコアエントロピーを提案する。
標準言語モデリングタスク上で,Score Entropy Discrete Diffusionモデルをテストする。
論文 参考訳(メタデータ) (2023-10-25T17:59:12Z) - Diff-Instruct: A Universal Approach for Transferring Knowledge From
Pre-trained Diffusion Models [77.83923746319498]
本稿では,任意の生成モデルの学習を指導するDiff-Instructというフレームワークを提案する。
Diff-Instructは、最先端の単一ステップ拡散モデルであることを示す。
GANモデルの精製実験により、Diff-InstructはGANモデルの事前訓練されたジェネレータを一貫して改善できることが示されている。
論文 参考訳(メタデータ) (2023-05-29T04:22:57Z) - On Distillation of Guided Diffusion Models [94.95228078141626]
そこで本研究では,分類器を含まない誘導拡散モデルから抽出し易いモデルへ抽出する手法を提案する。
画素空間上で訓練された標準拡散モデルに対して,本手法は元のモデルに匹敵する画像を生成することができる。
遅延空間で訓練された拡散モデル(例えば、安定拡散)に対して、我々の手法は1から4段階のデノナイジングステップで高忠実度画像を生成することができる。
論文 参考訳(メタデータ) (2022-10-06T18:03:56Z) - Model-free Subsampling Method Based on Uniform Designs [5.661822729320697]
我々は,既存の一様設計に基づく低GEFDデータ駆動サブサンプリング手法を開発した。
我々の手法は様々なモデル仕様の下で頑健であり、他の一般的なサブサンプリング手法は性能が低い。
論文 参考訳(メタデータ) (2022-09-08T07:47:56Z) - A Survey on Generative Diffusion Model [75.93774014861978]
拡散モデルは、深層生成モデルの新たなクラスである。
時間を要する反復生成過程や高次元ユークリッド空間への閉じ込めなど、いくつかの制限がある。
本調査では,拡散モデルの向上を目的とした高度な手法を多数提示する。
論文 参考訳(メタデータ) (2022-09-06T16:56:21Z) - Normalizing Flow based Hidden Markov Models for Classification of Speech
Phones with Explainability [25.543231171094384]
説明可能性を求めるため,逐次データ生成モデルを開発した。
我々は、現代のニューラルネットワーク(正規化フロー)と伝統的な生成モデル(隠れマルコフモデル - HMM)を組み合わせる。
提案した生成モデルは、データの可能性を計算することができ、従って、最大形分類法(ML)に直接適合する。
論文 参考訳(メタデータ) (2021-07-01T20:10:55Z) - On Statistical Efficiency in Learning [37.08000833961712]
モデルフィッティングとモデル複雑性のバランスをとるためのモデル選択の課題に対処する。
モデルの複雑さを順次拡大し、選択安定性を高め、コストを削減するオンラインアルゴリズムを提案します。
実験の結果, 提案手法は予測能力が高く, 計算コストが比較的低いことがわかった。
論文 参考訳(メタデータ) (2020-12-24T16:08:29Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。