論文の概要: SURFing to the Fundamental Limit of Jet Tagging
- arxiv url: http://arxiv.org/abs/2511.15779v1
- Date: Wed, 19 Nov 2025 19:00:00 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-21 17:08:52.332355
- Title: SURFing to the Fundamental Limit of Jet Tagging
- Title(参考訳): ジェットタグの基本限界へのSURFing
- Authors: Ian Pang, Darius A. Faroughy, David Shih, Ranit Das, Gregor Kasieczka,
- Abstract要約: 生成モデルを検証する新しいアプローチであるSURF(SUrrogate ReFerence)法を提案する。
我々は、EPiC-FM生成モデルがJetClassジェットの有効なサロゲート参照であり、現代のジェットタグが真の統計的限界に近づいていることを示すためにSURFを適用していると論じる。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Beyond the practical goal of improving search and measurement sensitivity through better jet tagging algorithms, there is a deeper question: what are their upper performance limits? Generative surrogate models with learned likelihood functions offer a new approach to this problem, provided the surrogate correctly captures the underlying data distribution. In this work, we introduce the SUrrogate ReFerence (SURF) method, a new approach to validating generative models. This framework enables exact Neyman-Pearson tests by training the target model on samples from another tractable surrogate, which is itself trained on real data. We argue that the EPiC-FM generative model is a valid surrogate reference for JetClass jets and apply SURF to show that modern jet taggers may already be operating close to the true statistical limit. By contrast, we find that autoregressive GPT models unphysically exaggerate top vs. QCD separation power encoded in the surrogate reference, implying that they are giving a misleading picture of the fundamental limit.
- Abstract(参考訳): ジェットタグアルゴリズムの改善による検索と測定感度の向上という現実的な目標に加えて、より深い疑問がある。
学習可能な確率関数を持つ生成的代理モデルはこの問題に対する新しいアプローチを提供し、サロゲートが基礎となるデータ分布を正しくキャプチャする。
本稿では,生成モデルの検証に新たなアプローチであるSURF(SUrrogate ReFerence)手法を提案する。
このフレームワークは、実際のデータに基づいてトレーニングされた別のトラクタブルサロゲートのサンプルに対して、ターゲットモデルをトレーニングすることで、正確なNeyman-Pearsonテストを可能にする。
我々は、EPiC-FM生成モデルがJetClassジェットの有効なサロゲート参照であり、現代のジェットタグが真の統計的限界に近づいていることを示すためにSURFを適用していると論じる。
対照的に、自己回帰型GPTモデルは、サロゲート参照に符号化されたトップ対QCD分離パワーを非物理的に誇張し、基本限界の誤解を招くことを示唆している。
関連論文リスト
- Universal Inverse Distillation for Matching Models with Real-Data Supervision (No GANs) [63.681263056053666]
提案するRealUIDは,GANを使わずに実データを蒸留プロセスにシームレスに組み込む,全てのマッチングモデルのための汎用蒸留フレームワークである。
我々のRealUIDアプローチは、フローマッチングと拡散モデルに対する以前の蒸留方法をカバーする単純な理論基盤を提供し、ブリッジマッチングや補間といった修正にも拡張されている。
論文 参考訳(メタデータ) (2025-09-26T15:12:02Z) - Solving Inverse Problems with FLAIR [68.87167940623318]
本稿では,フローベース生成モデルを逆問題に先立って活用する学習自由変分フレームワークFLAIRを提案する。
標準画像ベンチマークの結果、FLAIRは再現性やサンプルの多様性の観点から、既存の拡散法や流れ法よりも一貫して優れていることが示された。
論文 参考訳(メタデータ) (2025-06-03T09:29:47Z) - Rewarding the Unlikely: Lifting GRPO Beyond Distribution Sharpening [36.81125165911328]
強化学習は、言語モデルの推論能力を改善する主要な要因として現れています。
本稿では,現在の強化学習アルゴリズムが,すでに解いている問題に関するベースモデルの分布を単に研ぎ澄ましているだけかどうかを考察する。
差分報酬はランクバイアスを緩和し、合成定理と実定理の両方の証明設定において、多種多様な$N$でpass@N$を改善することを示す。
論文 参考訳(メタデータ) (2025-06-03T01:15:15Z) - A Bayesian Model Selection Criterion for Selecting Pretraining Checkpoints [4.005483185111992]
下流適応性を高める事前学習チェックポイントの特性について検討した。
我々は、チェックポイントの適応性を定量化する下流自由エネルギーと呼ばれるベイズモデル選択基準を導入する。
評価基準が微調整性能の向上と確実に相関することを示す実証的証拠を提供する。
論文 参考訳(メタデータ) (2024-10-08T01:50:21Z) - Model Inversion Attacks Through Target-Specific Conditional Diffusion Models [54.69008212790426]
モデル反転攻撃(MIA)は、ターゲット分類器のトレーニングセットからプライベートイメージを再構築することを目的としており、それによってAIアプリケーションにおけるプライバシー上の懸念が高まる。
従来のGANベースのMIAは、GANの固有の欠陥と潜伏空間における最適化の偏りにより、劣った遺伝子的忠実度に悩まされる傾向にある。
これらの問題を緩和するために拡散モデル反転(Diff-MI)攻撃を提案する。
論文 参考訳(メタデータ) (2024-07-16T06:38:49Z) - MoE-FFD: Mixture of Experts for Generalized and Parameter-Efficient Face Forgery Detection [54.545054873239295]
ディープフェイクは、最近、国民の間で重大な信頼問題とセキュリティ上の懸念を提起した。
ViT法はトランスの表現性を生かし,優れた検出性能を実現する。
この研究は、汎用的でパラメータ効率のよいViTベースのアプローチであるFace Forgery Detection (MoE-FFD)のためのMixture-of-Expertsモジュールを導入する。
論文 参考訳(メタデータ) (2024-04-12T13:02:08Z) - Bridging the Gap: Addressing Discrepancies in Diffusion Model Training
for Classifier-Free Guidance [1.6804613362826175]
拡散モデルは、生成モデルにおいて重要な進歩として現れている。
本稿では,従来の訓練方法と所望の条件付きサンプリング行動との相違点を明らかにすることを目的とする。
トレーニング目標とサンプリング行動との整合性を向上する改良された損失関数を導入する。
論文 参考訳(メタデータ) (2023-11-02T02:03:12Z) - Distributionally Robust Models with Parametric Likelihood Ratios [123.05074253513935]
3つの単純なアイデアにより、より広いパラメトリックな確率比のクラスを用いてDROでモデルを訓練することができる。
パラメトリック逆数を用いてトレーニングしたモデルは、他のDROアプローチと比較して、サブポピュレーションシフトに対して一貫して頑健であることがわかった。
論文 参考訳(メタデータ) (2022-04-13T12:43:12Z) - Learning generative models for valid knockoffs using novel
multivariate-rank based statistics [12.528602250193206]
ランクエネルギー (RE) は、Monge's Optimal Transport (OT) 問題における最適写像を特徴付ける理論的結果を用いて導出される。
我々は、ソフトランクエネルギー(sRE)と呼ばれるREの変種と、ソフトランク最大平均誤差(sRMMD)と呼ばれるカーネル変種を提案する。
次に、sRMMDを用いて深いノックオフを生成し、有効なノックオフを生成するための新規かつ効果的な方法であることを示す。
論文 参考訳(メタデータ) (2021-10-29T18:51:19Z) - Fast and Three-rious: Speeding Up Weak Supervision with Triplet Methods [24.190587751595455]
弱監督は、基底的真理アノテーションに頼ることなく機械学習モデルを構築する一般的な方法である。
既存の手法では、雑音源をモデル化するために潜時変数推定を用いる。
弱監督に高度に適用可能な潜在変数モデルのクラスについて、モデルパラメータに対する閉形式解を見つけることができることを示す。
この洞察を使ってFlyingSquidを構築します。FlyingSquidは、以前の弱い監視アプローチよりも桁違いに高速に実行される弱い監視フレームワークです。
論文 参考訳(メタデータ) (2020-02-27T07:51:50Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。