論文の概要: Neural Scaling Laws for Boosted Jet Tagging
- arxiv url: http://arxiv.org/abs/2602.15781v1
- Date: Tue, 17 Feb 2026 18:13:01 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-18 16:03:18.155897
- Title: Neural Scaling Laws for Boosted Jet Tagging
- Title(参考訳): ブースタージェットタグのニューラルスケーリング法則
- Authors: Matthias Vigl, Nicole Hartman, Michael Kagan, Lukas Heinrich,
- Abstract要約: 計算のスケーリングは、モデルキャパシティとデータセットサイズを共同で増加させることで、現代の機械学習におけるパフォーマンスの主要な要因となります。
計算の最適スケーリング法則を導出し,計算量の増加によって一貫したアプローチが可能な有効な性能限界を同定する。
次に、入力特徴と粒子乗法の選択により、スケーリング係数と性能限界がどう変化するかを検討する。
- 参考スコア(独自算出の注目度): 0.22399170518036912
- License: http://creativecommons.org/licenses/by-sa/4.0/
- Abstract: The success of Large Language Models (LLMs) has established that scaling compute, through joint increases in model capacity and dataset size, is the primary driver of performance in modern machine learning. While machine learning has long been an integral component of High Energy Physics (HEP) data analysis workflows, the compute used to train state-of-the-art HEP models remains orders of magnitude below that of industry foundation models. With scaling laws only beginning to be studied in the field, we investigate neural scaling laws for boosted jet classification using the public JetClass dataset. We derive compute optimal scaling laws and identify an effective performance limit that can be consistently approached through increased compute. We study how data repetition, common in HEP where simulation is expensive, modifies the scaling yielding a quantifiable effective dataset size gain. We then study how the scaling coefficients and asymptotic performance limits vary with the choice of input features and particle multiplicity, demonstrating that increased compute reliably drives performance toward an asymptotic limit, and that more expressive, lower-level features can raise the performance limit and improve results at fixed dataset size.
- Abstract(参考訳): LLM(Large Language Models)の成功により、モデルキャパシティとデータセットサイズを共同で増加させることによって、計算のスケーリングが、現代の機械学習におけるパフォーマンスの主要な要因であることが確立された。
機械学習は長年、高エネルギー物理(HEP)データ分析ワークフローの不可欠なコンポーネントであったが、最先端のHEPモデルをトレーニングするために使用される計算は、業界基盤モデルよりも桁違いに多い。
この分野でのスケーリング法則の研究は始まったばかりであり、公開JetClassデータセットを用いたブースタージェット分類のためのニューラルスケーリング法則について検討する。
計算の最適スケーリング法則を導出し,計算量の増加によって一貫したアプローチが可能な有効な性能限界を同定する。
我々は,シミュレーションが高価であるHEPで一般的なデータ反復が,定量的に有効なデータセットサイズゲインをもたらすスケーリングをいかに改善するかを検討する。
次に、入力特徴と粒子乗法の選択により、スケーリング係数と漸近的性能限界がどう変化するかを調べ、計算量の増加が漸近的限界に向けて性能を確実に駆動し、より表現力の高い低レベル特徴が性能限界を高め、一定のデータセットサイズで結果を改善するかを示す。
関連論文リスト
- Information Capacity: Evaluating the Efficiency of Large Language Models via Text Compression [53.39128997308138]
テキスト圧縮性能に基づくモデル効率の指標である情報容量を導入する。
主流のオープンソースモデルに対する実証的な評価は、シリーズ内のさまざまなサイズのモデルが一貫した情報容量を示すことを示している。
情報容量の特徴的な特徴は、入力と出力の両方のトークン数に影響を与えるトークン化効率が組み込まれていることである。
論文 参考訳(メタデータ) (2025-11-11T10:07:32Z) - Compute-Optimal Scaling for Value-Based Deep RL [99.680827753493]
オンライン価値ベースディープRLの計算スケーリングについて検討する。
解析の結果,モデルサイズ,バッチサイズ,UTD間の微妙な相互作用が明らかになった。
この現象を理解するためのメンタルモデルを提供し、バッチサイズとUTDを選択するためのガイドラインを構築します。
論文 参考訳(メタデータ) (2025-08-20T17:54:21Z) - Scaling Laws of Motion Forecasting and Planning - Technical Report [21.486301157587132]
本研究では,エンコーダ・デコーダ・オートレグレッシブ・トランスモデルの実証スケーリング法則について検討する。
モデルトレーニング損失とモデル評価指標との間には,強い相関関係がみられた。
我々は,エゴエージェントの性能向上のために,他のエージェントの一般的なログ化された運転データに対するトレーニングの有用性を短時間で検討した。
論文 参考訳(メタデータ) (2025-06-09T20:54:23Z) - Scaling Laws for Emulation of Stellar Spectra [0.0]
最適な性能を達成するために、トランスフォーマーベースのスペクトルエミュレータをスケーリングするためのトレーニングガイドラインを提供する。
この結果から,最適計算資源割り当てにはバランスの取れたスケーリングが必要であることが示唆された。
本研究は、拡張されたドメイン転送機能を持つスペクトル基底モデルを開発するための基盤を確立する。
論文 参考訳(メタデータ) (2025-03-24T12:20:24Z) - A Solvable Model of Neural Scaling Laws [72.8349503901712]
大量のパラメータを持つ大規模な言語モデルは、インターネットに近い数のトークンで訓練されると、ニューラルネットワークのスケーリング法則に従うことが実証的に示されている。
我々は,このニューラルスケーリング現象を捉える統計モデル(共同生成データモデルとランダム特徴モデル)を提案する。
主な発見は、自然データセットの統計に現れる電力法則が非線形ランダムな特徴写像によって拡張される方法である。
論文 参考訳(メタデータ) (2022-10-30T15:13:18Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。