論文の概要: Learning Symmetry-Independent Jet Representations via Jet-Based Joint Embedding Predictive Architecture
- arxiv url: http://arxiv.org/abs/2412.05333v1
- Date: Thu, 05 Dec 2024 19:00:14 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-12-10 14:52:30.352188
- Title: Learning Symmetry-Independent Jet Representations via Jet-Based Joint Embedding Predictive Architecture
- Title(参考訳): 予測アーキテクチャを用いた噴流による非依存噴流表現の学習
- Authors: Subash Katel, Haoyang Li, Zihan Zhao, Raghav Kansal, Farouk Mokhtar, Javier Duarte,
- Abstract要約: 自己教師付き学習(SSL)メソッドは、機械学習モデルの作成を支援する可能性がある。
本研究は,手作りによる拡張を伴わないジェット表現の学習手法を提案する。
J-JEPAがジェットタグで学んだ表現を微調整し、タスク固有の表現に対してベンチマークする。
- 参考スコア(独自算出の注目度): 10.640060102348084
- License:
- Abstract: In high energy physics, self-supervised learning (SSL) methods have the potential to aid in the creation of machine learning models without the need for labeled datasets for a variety of tasks, including those related to jets -- narrow sprays of particles produced by quarks and gluons in high energy particle collisions. This study introduces an approach to learning jet representations without hand-crafted augmentations using a jet-based joint embedding predictive architecture (J-JEPA), which aims to predict various physical targets from an informative context. As our method does not require hand-crafted augmentation like other common SSL techniques, J-JEPA avoids introducing biases that could harm downstream tasks. Since different tasks generally require invariance under different augmentations, this training without hand-crafted augmentation enables versatile applications, offering a pathway toward a cross-task foundation model. We finetune the representations learned by J-JEPA for jet tagging and benchmark them against task-specific representations.
- Abstract(参考訳): 高エネルギー物理学において、自己教師型学習(SSL)法は、高エネルギー粒子衝突においてクォークやグルーオンが生成する粒子の狭い噴霧を含むジェットを含む様々なタスクのためのラベル付きデータセットを必要とせずに、機械学習モデルの作成を支援する可能性がある。
本研究は,J-JEPA (J-JEPA) を用いて,手作りによる拡張を伴わないジェット表現の学習手法を提案する。
我々の手法は、他の一般的なSSL技術のように手作りの強化を必要としないため、J-JEPAは下流タスクに害を与えるバイアスを導入することを避けている。
異なるタスクは、通常、異なる拡張の下での不変性を必要とするため、手作りの強化のないこのトレーニングは、多目的アプリケーションを可能にし、クロスタスク基盤モデルへの道筋を提供する。
J-JEPAがジェットタグで学んだ表現を微調整し、タスク固有の表現に対してベンチマークする。
関連論文リスト
- HEP-JEPA: A foundation model for collider physics using joint embedding predictive architecture [0.0]
本稿では,高エネルギー粒子衝突器におけるタスクに対するトランスフォーマーアーキテクチャに基づく基礎モデルを提案する。
我々は,ジョイント・エンベディング予測アーキテクチャにインスパイアされた自己監督型戦略を用いて,ジェット機を分類するモデルを訓練する。
我々のモデルは、標準分類ベンチマークタスクのための他のデータセットと相性がいい。
論文 参考訳(メタデータ) (2025-02-06T10:16:27Z) - Do We Need to Design Specific Diffusion Models for Different Tasks? Try ONE-PIC [77.8851460746251]
本稿では,超音速拡散モデルに対する単純,効率的,汎用的なアプローチを提案する。
ONE-PICは、追加モジュールを導入することなく、事前訓練された拡散モデルにおける継承された生成能力を向上する。
本手法は,適応プロセスの合理化を図り,低コストで優れた性能を実現する,シンプルで効率的な手法である。
論文 参考訳(メタデータ) (2024-12-07T11:19:32Z) - T-JEPA: Augmentation-Free Self-Supervised Learning for Tabular Data [0.0]
自己教師付き学習(SSL)は一般的に同じサンプルの異なるビューを生成するため、データ拡張が必要である。
本研究では,構造化データに対する拡張不要なSSL方式を提案する。
我々のアプローチであるT-JEPAは、JEPA(Joint Embedding Predictive Architecture)に依存しており、潜伏した空間における再構築のマスクに似ている。
論文 参考訳(メタデータ) (2024-10-07T13:15:07Z) - Semi-Supervised One-Shot Imitation Learning [83.94646047695412]
ワンショットのImitation Learningは、AIエージェントに1つのデモから新しいタスクを学ぶ能力を持たせることを目的としている。
我々は,学習エージェントにトラジェクトリの大規模なデータセットを提示する,半教師付きOSIL問題設定を導入する。
我々は,この半教師付きOSIL設定に適用可能なアルゴリズムを開発した。
論文 参考訳(メタデータ) (2024-08-09T18:11:26Z) - Image and Point-cloud Classification for Jet Analysis in High-Energy Physics: A survey [3.1070277982608605]
本稿では、異なる機械学習(ML)とディープラーニング(DL)アプローチを用いたアプリケーションの概要を紹介する。
提案技術は、高輝度LHC(HL-LHC)や将来の円形コライダーであるハドロンハドロン(FCChh)などの将来のハドロンハドロン衝突体(HHC)に適用できる。
論文 参考訳(メタデータ) (2024-03-18T16:33:29Z) - OmniJet-$α$: The first cross-task foundation model for particle physics [0.0]
ファンデーションモデルはマルチデータセットとマルチタスクの機械学習手法で、一度トレーニングされたら、様々なダウンストリームアプリケーションのために微調整できる。
我々は,この課題について,いくつかの点で大きな進展を報告している。
我々は、教師なし問題(ジェット世代)と教師なしタスク(ジェットタグ付け)の移行学習を、新しいOmniJet-$alpha$モデルで実証する。
論文 参考訳(メタデータ) (2024-03-08T19:00:01Z) - Diffusion-Based Neural Network Weights Generation [80.89706112736353]
D2NWGは拡散に基づくニューラルネットワーク重み生成技術であり、転送学習のために高性能な重みを効率よく生成する。
本稿では,ニューラルネットワーク重み生成のための遅延拡散パラダイムを再放送するために,生成的ハイパー表現学習を拡張した。
我々のアプローチは大規模言語モデル(LLM)のような大規模アーキテクチャにスケーラブルであり、現在のパラメータ生成技術の限界を克服しています。
論文 参考訳(メタデータ) (2024-02-28T08:34:23Z) - Flow Matching Beyond Kinematics: Generating Jets with Particle-ID and
Trajectory Displacement Information [0.0]
我々はJetClassデータセットでトレーニングされた最初の生成モデルを紹介する。
本モデルでは, 構成レベルでジェットを発生させ, 流れマッチング法でトレーニングした変分同変連続正規化流(CNF)である。
また,ジェット部品の運動特性を超越した生成モデルも導入した。
論文 参考訳(メタデータ) (2023-11-30T19:00:02Z) - Towards Efficient Task-Driven Model Reprogramming with Foundation Models [52.411508216448716]
ビジョンファウンデーションモデルは、非常に大きなモデルキャパシティと幅広いトレーニングデータから恩恵を受け、印象的なパワーを示す。
しかし、実際には、下流のシナリオは限られた計算資源や効率上の考慮のため、小さなモデルしかサポートできない。
これは、ファンデーションモデルの現実的な応用に重要な課題をもたらします。
論文 参考訳(メタデータ) (2023-04-05T07:28:33Z) - Energy-Efficient and Federated Meta-Learning via Projected Stochastic
Gradient Ascent [79.58680275615752]
エネルギー効率のよいメタラーニングフレームワークを提案する。
各タスクは別々のエージェントによって所有されていると仮定するため、メタモデルをトレーニングするために限られたタスクが使用される。
論文 参考訳(メタデータ) (2021-05-31T08:15:44Z) - SUOD: Accelerating Large-Scale Unsupervised Heterogeneous Outlier
Detection [63.253850875265115]
外乱検出(OD)は、一般的なサンプルから異常物体を識別するための機械学習(ML)タスクである。
そこで我々は,SUODと呼ばれるモジュール型加速度システムを提案する。
論文 参考訳(メタデータ) (2020-03-11T00:22:50Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。