論文の概要: Particle Trajectory Representation Learning with Masked Point Modeling
- arxiv url: http://arxiv.org/abs/2502.02558v2
- Date: Sun, 09 Feb 2025 19:57:41 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-02-11 14:33:26.010603
- Title: Particle Trajectory Representation Learning with Masked Point Modeling
- Title(参考訳): マスケプポイントモデリングによる粒子軌道表現学習
- Authors: Sam Young, Yeon-jae Jwa, Kazuhiro Terao,
- Abstract要約: 時間射影チャンバー(TPC)における3次元粒子軌道解析のための自己監督型マスクモデリングフレームワーク
本研究は、疎イオン化点を分解能に依存しないパッチにグループ化するためのボリュームトークン化を提案する。
PoLAr-MAEは99.4%のトラックと97.7%のシャワー分類Fスコアを達成した。
- 参考スコア(独自算出の注目度): 0.0
- License:
- Abstract: Effective self-supervised learning (SSL) techniques have been key to unlocking large datasets for representation learning. While many promising methods have been developed using online corpora and captioned photographs, their application to scientific domains, where data encodes highly specialized knowledge, remains in its early stages. We present a self-supervised masked modeling framework for 3D particle trajectory analysis in Time Projection Chambers (TPCs). These detectors produce globally sparse (<1% occupancy) but locally dense point clouds, capturing meter-scale particle trajectories at millimeter resolution. Starting with PointMAE, this work proposes volumetric tokenization to group sparse ionization points into resolution-agnostic patches, as well as an auxiliary energy infilling task to improve trajectory semantics. This approach -- which we call Point-based Liquid Argon Masked Autoencoder (PoLAr-MAE) -- achieves 99.4% track and 97.7% shower classification F-scores, matching that of supervised baselines without any labeled data. While the model learns rich particle trajectory representations, it struggles with sub-token phenomena like overlapping or short-lived particle trajectories. To support further research, we release PILArNet-M -- the largest open LArTPC dataset (1M+ events, 5.2B labeled points) -- to advance SSL in high energy physics (HEP). Project site: https://youngsm.com/polarmae/
- Abstract(参考訳): 効率的な自己教師付き学習(SSL)技術は、表現学習のために大規模なデータセットをアンロックする鍵となった。
オンラインコーパスとキャプション付き写真を用いて多くの有望な手法が開発されているが、データに高度に専門知識をエンコードする科学分野への応用は、まだ初期段階にある。
時間射影チャンバー(TPC)における3次元粒子軌道解析のための自己教師付きマスク付きモデリングフレームワークを提案する。
これらの検出器は地球規模でスパース(<1%の占有率)を発生させるが、局所的に密度の高い点雲を発生させ、ミリ波分解能でメートルスケールの粒子軌道を捉えている。
この研究はPointMAEから始まり、軌跡のセマンティクスを改善するための補助的なエネルギー充満タスクと同様に、スパースイオン化点を分解に依存しないパッチにグループ化するボリュームトークン化を提案する。
ポイントベースのLiquid Argon Masked Autoencoder (PoLAr-MAE) と呼ばれるこのアプローチは、99.4%のトラックと97.7%のシャワー分類Fスコアを獲得し、ラベル付きデータなしで教師付きベースラインと一致する。
モデルは豊富な粒子軌道表現を学習するが、重なり合いや短命な粒子軌道のようなサブトーケン現象に苦しむ。
さらなる研究を支援するため、我々は、高エネルギー物理学(HEP)においてSSLを進めるために、最大のオープンLArTPCデータセットであるPILArNet-M(1M+イベント、5.2Bラベル付きポイント)をリリースする。
プロジェクトサイト:https://youngsm.com/polarmae/
関連論文リスト
- Unsupervised Machine Learning for Detecting and Locating Human-Made Objects in 3D Point Cloud [4.325161601374467]
本研究は,自然木構造中の人工物の検出と同定という,新しい課題を紹介する。
提案手法は, 地中フィルタリング, 局所情報抽出, クラスタリングの3段階からなる。
実験により,提案手法は従来の手法よりも優れた性能を示した。
論文 参考訳(メタデータ) (2024-10-25T23:20:57Z) - Parameter-Efficient Fine-Tuning in Spectral Domain for Point Cloud Learning [49.91297276176978]
私たちは小説を提案します。
ポイントGST (Point GST) と呼ばれる点雲の効率的な微細調整法。
ポイントGSTは事前トレーニングされたモデルを凍結し、スペクトル領域のパラメータを微調整するためのトレーニング可能なポイントクラウドスペクトルアダプタ(PCSA)を導入する。
挑戦的なポイントクラウドデータセットに関する大規模な実験は、ポイントGSTが完全に微調整されたデータセットを上回るだけでなく、トレーニング可能なパラメータを大幅に削減することを示した。
論文 参考訳(メタデータ) (2024-10-10T17:00:04Z) - MAELi: Masked Autoencoder for Large-Scale LiDAR Point Clouds [13.426810473131642]
Masked AutoEncoder for LiDAR Point clouds (MAELi) は、復元中にエンコーダとデコーダの両方でLiDARポイントクラウドの空間性を直感的に活用する。
新たな再構築アプローチでは、MAELiは空空間と隠された空間を区別する。
これにより、MAELiは基礎となる3次元シーンの幾何学と意味論の理解を得る。
論文 参考訳(メタデータ) (2022-12-14T13:10:27Z) - LESS: Label-Efficient Semantic Segmentation for LiDAR Point Clouds [62.49198183539889]
我々は,LiDAR点雲を用いた屋外シーンのためのラベル効率のよいセマンティックセマンティックセマンティクスパイプラインを提案する。
本手法は,半弱教師付き学習を用いて,効率的なラベリング手法を設計する。
提案手法は,100%ラベル付き完全教師付き手法と比較して,さらに競争力が高い。
論文 参考訳(メタデータ) (2022-10-14T19:13:36Z) - Occupancy-MAE: Self-supervised Pre-training Large-scale LiDAR Point
Clouds with Masked Occupancy Autoencoders [13.119676419877244]
本研究では,大規模未ラベル屋外LiDAR点雲の事前学習を活用することで,ラベル付き3Dトレーニングデータへの依存を低減する方法を提案する。
本手法では,Occupancy-MAEと呼ばれる自己監督型マスマスマスマスキングの事前学習手法を提案する。
3Dオブジェクト検出では、Occupancy-MAEは、KITTIデータセット上での車検出に必要なラベル付きデータを半減する。
3Dセマンティックセグメンテーションでは、Occupancy-MAEはmIoUでトレーニングをスクラッチから約2%上回っている。
論文 参考訳(メタデータ) (2022-06-20T17:15:50Z) - Point-M2AE: Multi-scale Masked Autoencoders for Hierarchical Point Cloud
Pre-training [56.81809311892475]
Masked Autoencoders (MAE) は、言語と2次元画像変換器の自己教師付き事前学習において大きな可能性を示している。
我々は3次元点雲の階層的自己教師型学習のための強力なマルチスケールMAE事前学習フレームワークであるPoint-M2AEを提案する。
論文 参考訳(メタデータ) (2022-05-28T11:22:53Z) - Open-Set Semi-Supervised Learning for 3D Point Cloud Understanding [62.17020485045456]
半教師付き学習(SSL)では、ラベル付きデータと同じ分布からラベル付きデータが引き出されることが一般的である。
サンプル重み付けによりラベルなしデータを選択的に活用することを提案する。
論文 参考訳(メタデータ) (2022-05-02T16:09:17Z) - Learning Semantic Segmentation of Large-Scale Point Clouds with Random
Sampling [52.464516118826765]
我々はRandLA-Netを紹介した。RandLA-Netは、大規模ポイントクラウドのポイントごとの意味を推論する、効率的で軽量なニューラルネットワークアーキテクチャである。
我々のアプローチの鍵は、より複雑な点選択アプローチではなく、ランダムな点サンプリングを使用することである。
我々のRandLA-Netは、既存のアプローチよりも最大200倍高速な1回のパスで100万ポイントを処理できます。
論文 参考訳(メタデータ) (2021-07-06T05:08:34Z) - MST: Masked Self-Supervised Transformer for Visual Representation [52.099722121603506]
Transformerは自然言語処理(NLP)における自己教師型事前学習に広く利用されている。
我々は、画像の局所的コンテキストを明示的にキャプチャできる、MSTと呼ばれる新しいMasked Self-supervised Transformerアプローチを提案する。
MSTは、線形評価による300エポック事前トレーニングのみを使用して、DeiT-Sで76.9%のTop-1精度を達成する。
論文 参考訳(メタデータ) (2021-06-10T11:05:18Z) - A Nearest Neighbor Network to Extract Digital Terrain Models from 3D
Point Clouds [1.6249267147413524]
本稿では,3Dポイントのクラウド上で動作し,エンド・ツー・エンドのアプローチを用いてシーンの基盤となるDTMを推定するアルゴリズムを提案する。
我々のモデルは近隣情報を学習し、これをポイントワイドでブロックワイドなグローバルな特徴とシームレスに統合する。
論文 参考訳(メタデータ) (2020-05-21T15:54:55Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。