論文の概要: Latent Representation Learning in Heavy-Ion Collisions with MaskPoint Transformer
- arxiv url: http://arxiv.org/abs/2510.06691v1
- Date: Wed, 08 Oct 2025 06:27:10 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-09 16:41:20.332991
- Title: Latent Representation Learning in Heavy-Ion Collisions with MaskPoint Transformer
- Title(参考訳): マスクポイント変換器を用いた重イオン衝突における潜時表現学習
- Authors: Jing-Zong Zhang, Shuang Guo, Li-Lin Zhu, Lingxiao Wang, Guo-Liang Ma,
- Abstract要約: 本稿では,トランスフォーマーベースのオートエンコーダについて,自己教師付き事前学習と教師付き微調整という2段階のパラダイムで学習した。
エンコーダはラベルのないHICデータから直接潜在表現を学習し、コンパクトで情報豊富な特徴空間を提供する。
その結果,HICにおける特徴学習の汎用的かつ堅牢な基盤として2段階の枠組みを確立し,クォークグルーオンプラズマ特性のより強力な解析への扉を開くことができた。
- 参考スコア(独自算出の注目度): 2.6610943214001765
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: A central challenge in high-energy nuclear physics is to extract informative features from the high-dimensional final-state data of heavy-ion collisions (HIC) in order to enable reliable downstream analyses. Traditional approaches often rely on selected observables, which may miss subtle but physically relevant structures in the data. To address this, we introduce a Transformer-based autoencoder trained with a two-stage paradigm: self-supervised pre-training followed by supervised fine-tuning. The pretrained encoder learns latent representations directly from unlabeled HIC data, providing a compact and information-rich feature space that can be adapted to diverse physics tasks. As a case study, we apply the method to distinguish between large and small collision systems, where it achieves significantly higher classification accuracy than PointNet. Principal component analysis and SHAP interpretation further demonstrate that the autoencoder captures complex nonlinear correlations beyond individual observables, yielding features with strong discriminative and explanatory power. These results establish our two-stage framework as a general and robust foundation for feature learning in HIC, opening the door to more powerful analyses of quark--gluon plasma properties and other emergent phenomena. The implementation is publicly available at https://github.com/Giovanni-Sforza/MaskPoint-AMPT.
- Abstract(参考訳): 高エネルギー核物理学における中心的な課題は、信頼できる下流分析を可能にするために、重イオン衝突(HIC)の高次元最終状態データから情報的特徴を抽出することである。
従来のアプローチでは、データ内の微妙だが物理的に関係のある構造を見逃すような、選択された可観測性に依存することが多い。
そこで本研究では,トランスフォーマーをベースとした2段階パラダイムを用いたオートエンコーダを提案する。
事前訓練されたエンコーダは、ラベルのないHICデータから直接潜在表現を学習し、様々な物理タスクに適応可能なコンパクトで情報豊富な特徴空間を提供する。
本研究では,大規模衝突系と小型衝突系を区別するために本手法を適用し,PointNetよりも高い分類精度を実現する。
主成分分析とSHAP解釈により、オートエンコーダは個々の可観測物以外の複雑な非線形相関を捕捉し、強い識別力と説明力を持つ特徴を与えることが示された。
これらの結果は,HICにおける特徴学習のための汎用的かつ堅牢な基盤として,我々の2段階の枠組みを確立し,クォークグルーオンプラズマ特性やその他の創発現象のより強力な解析への扉を開く。
実装はhttps://github.com/Giovanni-Sforza/MaskPoint-AMPTで公開されている。
関連論文リスト
- Stable and Interpretable Jet Physics with IRC-Safe Equivariant Feature Extraction [0.0]
コライダー物理におけるクォークグルーオン識別のためのグラフニューラルネットワークについて検討する。
特に、赤外線とコリニア(IRC)の安全性を強制するメッセージパッシングアーキテクチャを設計する。
解析により、物理認識ネットワークはトレーニングインスタンス間でより安定であり、複数の解釈可能な方向にわたって遅延分散を分散していることがわかった。
論文 参考訳(メタデータ) (2025-09-26T08:42:58Z) - Uncovering Magnetic Phases with Synthetic Data and Physics-Informed Training [0.0]
合成データに基づいて学習した人工ニューラルネットワークを用いた磁気位相の効率的な学習について検討する。
モデル性能を向上させるために,物理インフォームドガイダンスの2つの重要な形態を取り入れた。
この結果から, 合成, 構造化, 計算効率のよい学習手法は, 物理的に意味のある位相境界を明らかにすることができることがわかった。
論文 参考訳(メタデータ) (2025-05-15T15:16:16Z) - Mixture-of-Experts Graph Transformers for Interpretable Particle Collision Detection [36.56642608984189]
本稿では,グラフトランスフォーマーモデルとMixture-of-Expertレイヤを組み合わせることで,高い予測性能を実現する手法を提案する。
我々は、ATLAS実験からシミュレーションイベントのモデルを評価し、希少な超対称性信号イベントの識別に焦点をあてた。
このアプローチは、高エネルギー物理学に適用された機械学習手法における説明可能性の重要性を浮き彫りにする。
論文 参考訳(メタデータ) (2025-01-06T23:28:19Z) - Localized Gaussians as Self-Attention Weights for Point Clouds Correspondence [92.07601770031236]
本稿では,エンコーダのみのトランスフォーマーアーキテクチャのアテンションヘッドにおける意味的意味パターンについて検討する。
注意重みの修正はトレーニングプロセスの促進だけでなく,最適化の安定性の向上にも寄与する。
論文 参考訳(メタデータ) (2024-09-20T07:41:47Z) - How JEPA Avoids Noisy Features: The Implicit Bias of Deep Linear Self Distillation Networks [14.338754598043968]
データ表現の自己教師型学習には2つの競合パラダイムが存在する。
JEPA(Joint Embedding Predictive Architecture)は、意味的に類似した入力が互いに予測可能な表現に符号化されるアーキテクチャのクラスである。
論文 参考訳(メタデータ) (2024-07-03T19:43:12Z) - Disentanglement via Latent Quantization [60.37109712033694]
本研究では,組織化された潜在空間からの符号化と復号化に向けた帰納的バイアスを構築する。
本稿では,基本データレコーダ (vanilla autoencoder) と潜時再構成 (InfoGAN) 生成モデルの両方に追加することで,このアプローチの広範な適用性を実証する。
論文 参考訳(メタデータ) (2023-05-28T06:30:29Z) - Probabilistic Graph Attention Network with Conditional Kernels for
Pixel-Wise Prediction [158.88345945211185]
本稿では,画素レベルの予測を基本的側面,すなわち,技術の現状を推し進める新たなアプローチを提案する。
構造化されたマルチスケール機能学習と融合。
本論文では,マルチスケール表現を原理的に学習・融合するための新しいアテンテンションゲート条件ランダムフィールド(AG-CRFs)モデルに基づく確率的グラフアテンションネットワーク構造を提案する。
論文 参考訳(メタデータ) (2021-01-08T04:14:29Z) - A Trainable Optimal Transport Embedding for Feature Aggregation and its
Relationship to Attention [96.77554122595578]
固定サイズのパラメータ化表現を導入し、与えられた入力セットから、そのセットとトレーニング可能な参照の間の最適な輸送計画に従って要素を埋め込み、集約する。
我々のアプローチは大規模なデータセットにスケールし、参照のエンドツーエンドのトレーニングを可能にすると同時に、計算コストの少ない単純な教師なし学習メカニズムも提供する。
論文 参考訳(メタデータ) (2020-06-22T08:35:58Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。