論文の概要: Particle Hit Clustering and Identification Using Point Set Transformers in Liquid Argon Time Projection Chambers
- arxiv url: http://arxiv.org/abs/2504.08182v1
- Date: Fri, 11 Apr 2025 00:46:57 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-04-14 14:17:46.179086
- Title: Particle Hit Clustering and Identification Using Point Set Transformers in Liquid Argon Time Projection Chambers
- Title(参考訳): 液状アルゴン時間射影チャンバーにおける点集合変換器を用いた粒子ヒットクラスタリングと同定
- Authors: Edgar E. Robles, Alejando Yankelevich, Wenjie Wu, Jianming Bian, Pierre Baldi,
- Abstract要約: 液体時間投影チャンバーは、高空間分解能のため、ニュートリノ物理学やダークマター探索でしばしば用いられる。
これらの検出器によって生成された画像は、ほとんどの検出器によって検出されたエネルギー値が0に等しいため、非常にスパースである。
従来の機械学習手法では、このような方法で格納されたデータを操作することはできない。
本稿では,スパース行列上で動作する点集合ニューラルネットワークを用いた機械学習モデルを提案する。
- 参考スコア(独自算出の注目度): 44.255911829510694
- License:
- Abstract: Liquid argon time projection chambers are often used in neutrino physics and dark-matter searches because of their high spatial resolution. The images generated by these detectors are extremely sparse, as the energy values detected by most of the detector are equal to 0, meaning that despite their high resolution, most of the detector is unused in a particular interaction. Instead of representing all of the empty detections, the interaction is usually stored as a sparse matrix, a list of detection locations paired with their energy values. Traditional machine learning methods that have been applied to particle reconstruction such as convolutional neural networks (CNNs), however, cannot operate over data stored in this way and therefore must have the matrix fully instantiated as a dense matrix. Operating on dense matrices requires a lot of memory and computation time, in contrast to directly operating on the sparse matrix. We propose a machine learning model using a point set neural network that operates over a sparse matrix, greatly improving both processing speed and accuracy over methods that instantiate the dense matrix, as well as over other methods that operate over sparse matrices. Compared to competing state-of-the-art methods, our method improves classification performance by 14%, segmentation performance by more than 22%, while taking 80% less time and using 66% less memory. Compared to state-of-the-art CNN methods, our method improves classification performance by more than 86%, segmentation performance by more than 71%, while reducing runtime by 91% and reducing memory usage by 61%.
- Abstract(参考訳): 液体アルゴン時間射出チャンバーは、高空間分解能のため、ニュートリノ物理学やダークマター探索でしばしば用いられる。
これらの検出器によって生成された画像は、ほとんどの検出器によって検出されたエネルギー値が0に等しいため、非常にスパースである。
空のすべての検出を表す代わりに、相互作用は通常スパースマトリクスとして保存される。
しかし、畳み込みニューラルネットワーク(CNN)のような粒子再構成に応用された従来の機械学習手法では、この方法で格納されたデータを操作できないため、行列を密度行列として完全にインスタンス化する必要がある。
密度の高い行列で操作するには、スパース行列で直接操作するのとは対照的に、多くのメモリと計算時間が必要である。
本研究では,スパース行列上で動作する点集合ニューラルネットワークを用いた機械学習モデルを提案し,密度行列をインスタンス化する手法と,スパース行列上で動作する他の手法よりも処理速度と精度を大幅に向上させる。
競合する最先端手法と比較して分類性能は14%向上し,セグメンテーション性能は22%向上した。
現状のCNN手法と比較して,本手法は分類性能を86%以上改善し,セグメンテーション性能を71%以上改善し,ランタイムを91%削減し,メモリ使用量を61%削減する。
関連論文リスト
- SMM-Conv: Scalar Matrix Multiplication with Zero Packing for Accelerated Convolution [4.14360329494344]
本稿では、CPUアーキテクチャの推論中に畳み込みを加速するための新しいアプローチを提案する。
ネットワークアーキテクチャを用いた実験は,既存の間接手法に比べて大幅に高速化された。
論文 参考訳(メタデータ) (2024-11-23T21:43:38Z) - Fast inference with Kronecker-sparse matrices [4.387337528923525]
Kronecker-sparse行列による乗算のための最初のエネルギーおよび時間ベンチマークを示す。
私たちのベンチマークでは、メモリ書き換え操作に実行時の最大50%を特殊実装が費やしていることも示しています。
我々は,エネルギー消費を15%削減しつつ,x1.4の中央値の高速化を実現する新しいカーネルを実装した。
論文 参考訳(メタデータ) (2024-05-23T19:36:10Z) - An Efficient Algorithm for Clustered Multi-Task Compressive Sensing [60.70532293880842]
クラスタ化マルチタスク圧縮センシングは、複数の圧縮センシングタスクを解決する階層モデルである。
このモデルに対する既存の推論アルゴリズムは計算コストが高く、高次元ではうまくスケールしない。
本稿では,これらの共分散行列を明示的に計算する必要をなくし,モデル推論を大幅に高速化するアルゴリズムを提案する。
論文 参考訳(メタデータ) (2023-09-30T15:57:14Z) - RSC: Accelerating Graph Neural Networks Training via Randomized Sparse
Computations [56.59168541623729]
トレーニンググラフニューラルネットワーク(GNN)は、疎グラフベースの操作がハードウェアによって加速することが難しいため、時間を要する。
我々は,サンプリングに基づく近似による時間的複雑性を低減するために,計算精度のトレードオフを検討する。
本稿では,GNNを近似演算でトレーニングする可能性を初めて示すランダム化スパース計算を提案する。
論文 参考訳(メタデータ) (2022-10-19T17:25:33Z) - Batch-efficient EigenDecomposition for Small and Medium Matrices [65.67315418971688]
EigenDecomposition (ED)は多くのコンピュータビジョンアルゴリズムとアプリケーションの中心にある。
本稿では,コンピュータビジョンの応用シナリオに特化したQRベースのED手法を提案する。
論文 参考訳(メタデータ) (2022-07-09T09:14:12Z) - A Structured Sparse Neural Network and Its Matrix Calculations Algorithm [0.0]
非対称な三対角行列を導入し, 対角方向のスパース成分とオフセット部分および超対角線を導入した。
行列逆が存在しない場合には、最小二乗型擬逆が提供される。
その結果,行列のサイズが大きくなると計算コストが著しく向上することがわかった。
論文 参考訳(メタデータ) (2022-07-02T19:38:48Z) - Memory-Efficient Backpropagation through Large Linear Layers [107.20037639738433]
Transformersのような現代のニューラルネットワークでは、線形層は後方通過時にアクティベーションを保持するために大きなメモリを必要とする。
本研究では,線形層によるバックプロパゲーションを実現するためのメモリ削減手法を提案する。
論文 参考訳(メタデータ) (2022-01-31T13:02:41Z) - Robust 1-bit Compressive Sensing with Partial Gaussian Circulant
Matrices and Generative Priors [54.936314353063494]
我々は,ロバストな1ビット圧縮センシングのための相関に基づく最適化アルゴリズムのリカバリ保証を提供する。
我々は,実用的な反復アルゴリズムを用いて,画像データセットの数値実験を行い,結果の相関付けを行う。
論文 参考訳(メタデータ) (2021-08-08T05:28:06Z) - Fast and Accurate Pseudoinverse with Sparse Matrix Reordering and
Incremental Approach [4.710916891482697]
擬逆は行列逆の一般化であり、機械学習で広く利用されている。
FastPIはスパース行列に対する新たなインクリメンタル特異値分解法(SVD)である。
我々は,FastPIが精度を損なうことなく,他の近似手法よりも高速に擬似逆計算を行うことを示す。
論文 参考訳(メタデータ) (2020-11-09T07:47:10Z) - Block-wise Dynamic Sparseness [20.801638768447948]
本稿では, 入力に基づいて計算の一部を動的に省略する, エンファンダイナミックスパース性の新しい手法を提案する。
提案手法は,高密度ベースラインと類似した言語モデリングの難易度を,推論時の計算コストの半額で達成する。
論文 参考訳(メタデータ) (2020-01-14T10:03:21Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。