論文の概要: Adapting Vision-Language Models for Neutrino Event Classification in High-Energy Physics
- arxiv url: http://arxiv.org/abs/2509.08461v1
- Date: Wed, 10 Sep 2025 10:07:27 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-11 15:16:52.382064
- Title: Adapting Vision-Language Models for Neutrino Event Classification in High-Energy Physics
- Title(参考訳): 高エネルギー物理におけるニュートリノ事象分類のための視覚言語モデルの適用
- Authors: Dikshant Sagar, Kaiwen Yu, Alejandro Yankelevich, Jianming Bian, Pierre Baldi,
- Abstract要約: 本研究は高エネルギー物理実験による画素検出器データにおけるニュートリノ相互作用の同定へのビジョン言語モデル(VLM)の適用について検討する。
我々はこのモデルを、NOvAやDUNE実験で使われているものと同様、最先端の畳み込みニューラルネットワーク(CNN)アーキテクチャと比較した。
VLMはCNNよりも優れ、補助的なテキストやセマンティック情報の統合や、より解釈可能な推論ベースの予測を提供する柔軟性も向上する。
- 参考スコア(独自算出の注目度): 41.33501105382656
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Recent advances in Large Language Models (LLMs) have demonstrated their remarkable capacity to process and reason over structured and unstructured data modalities beyond natural language. In this work, we explore the applications of Vision Language Models (VLMs), specifically a fine-tuned variant of LLaMa 3.2, to the task of identifying neutrino interactions in pixelated detector data from high-energy physics (HEP) experiments. We benchmark this model against a state-of-the-art convolutional neural network (CNN) architecture, similar to those used in the NOvA and DUNE experiments, which have achieved high efficiency and purity in classifying electron and muon neutrino events. Our evaluation considers both the classification performance and interpretability of the model predictions. We find that VLMs can outperform CNNs, while also providing greater flexibility in integrating auxiliary textual or semantic information and offering more interpretable, reasoning-based predictions. This work highlights the potential of VLMs as a general-purpose backbone for physics event classification, due to their high performance, interpretability, and generalizability, which opens new avenues for integrating multimodal reasoning in experimental neutrino physics.
- Abstract(参考訳): 近年のLLM(Large Language Models)の進歩は、自然言語を超えた構造化された非構造化データモダリティの処理と推論に顕著な能力を示している。
本研究では、高エネルギー物理(HEP)実験による画素検出データにおけるニュートリノ相互作用の同定に、特にLLaMa 3.2の微調整版であるビジョン言語モデル(VLM)の適用について検討する。
我々はこのモデルを,NOvAやDUNE実験で用いられているような最先端の畳み込みニューラルネットワーク(CNN)アーキテクチャと比較し,電子とミューオンニュートリノのイベントの分類において高い効率と純度を達成した。
本評価では,モデル予測の分類性能と解釈可能性について考察する。
VLMはCNNよりも優れ、補助的なテキストやセマンティック情報の統合や、より解釈可能な推論ベースの予測を提供する柔軟性も向上する。
この研究は、高性能、解釈可能性、一般化可能性により、物理事象分類のための汎用的なバックボーンとしてのVLMの可能性を強調し、実験ニュートリノ物理学にマルチモーダル推論を統合するための新たな道を開く。
関連論文リスト
- Fine-Tuning Vision-Language Models for Neutrino Event Analysis in High-Energy Physics Experiments [41.33501105382656]
高エネルギー物理実験における画素検出器画像からのニュートリノ相互作用の分類のためのビジョン・ランゲージモデル(VLM)
我々は、NOvAやDUNEなどの実験で使用される確立されたCNNベースラインに対して、その性能をベンチマークし、分類精度、精度、リコール、AUC-ROCなどの指標を評価する。
以上の結果から,VLMはCNNの性能に適合するだけでなく,よりリッチな推論や,補助的なテキストやセマンティックコンテキストの統合も可能であることがわかった。
論文 参考訳(メタデータ) (2025-08-26T19:12:28Z) - Do Vision-Language Models Have Internal World Models? Towards an Atomic Evaluation [54.3628937181904]
内部世界モデル(英語版)(WM)は、エージェントが世界の状態を理解し、遷移を予測することを可能にする。
近年,OpenAI o3, GPT-4o, Geminiなどの大規模視覚言語モデル(VLM)は汎用的なWMとしての可能性を示している。
論文 参考訳(メタデータ) (2025-06-27T03:24:29Z) - Do We Really Need GNNs with Explicit Structural Modeling? MLPs Suffice for Language Model Representations [50.45261187796993]
グラフニューラルネットワーク(GNN)は構造情報を十分に活用できないが、MLP(Multi-Layer Perceptrons)は構造認識タスクにおいて驚くべき能力を示す。
本稿では,情報理論の観点から総合的な探索フレームワークを提案する。
論文 参考訳(メタデータ) (2025-06-26T18:10:28Z) - Leveraging neural network interatomic potentials for a foundation model of chemistry [2.66269503676104]
HackNIPは、事前訓練されたニューラルネットワークの原子間ポテンシャルを利用する2段階のパイプラインである。
まず、NIPファンデーションモデルから固定長特徴ベクトルを抽出し、次にこれらの埋め込みを使用して浅いMLモデルを訓練する。
本研究では、NIPのハッキングによるハイブリッド化アプローチが、エンドツーエンドのディープニューラルネットワークより優れているかどうかを検討する。
論文 参考訳(メタデータ) (2025-06-23T10:49:19Z) - Neural ODE Transformers: Analyzing Internal Dynamics and Adaptive Fine-tuning [30.781578037476347]
高度にフレキシブルな非自律型ニューラル常微分方程式(ODE)を用いたトランスフォーマーアーキテクチャのモデリング手法を提案する。
提案モデルでは,ニューラルネットワークによる注目度とフィードフォワードブロックの重みをパラメータ化し,これらの重みを連続層インデックスの関数として表現する。
我々のニューラルODE変換器は、さまざまな構成やデータセットにわたるバニラ変換器に匹敵するパフォーマンスを示す。
論文 参考訳(メタデータ) (2025-03-03T09:12:14Z) - A transfer learning enhanced the physics-informed neural network model
for vortex-induced vibration [0.0]
本稿では、VIV(2D)を研究するために、物理インフォームドニューラルネットワーク(PINN)モデルを用いたトランスファーラーニングを提案する。
物理インフォームドニューラルネットワークは、転送学習法と併用することにより、学習効率を高め、大量のデータセットを必要とせずに、ソースモデルからの共通特性知識による目標タスクの予測可能性を維持する。
論文 参考訳(メタデータ) (2021-12-29T08:20:23Z) - Physics-Integrated Variational Autoencoders for Robust and Interpretable
Generative Modeling [86.9726984929758]
我々は、不完全物理モデルの深部生成モデルへの統合に焦点を当てる。
本稿では,潜在空間の一部が物理によって基底づけられたVAEアーキテクチャを提案する。
合成および実世界のデータセットの集合に対して生成的性能改善を示す。
論文 参考訳(メタデータ) (2021-02-25T20:28:52Z) - Phase Detection with Neural Networks: Interpreting the Black Box [58.720142291102135]
ニューラルネットワーク(NN)は通常、予測の背後にある推論に対する洞察を妨げます。
本研究では,1次元拡張スピンレスFermi-Hubbardモデルの位相を半充足で予測するために,NNのブラックボックスをいかに影響関数が解き放つかを示す。
論文 参考訳(メタデータ) (2020-04-09T17:45:45Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。