論文の概要: Particle Trajectory Representation Learning with Masked Point Modeling
- arxiv url: http://arxiv.org/abs/2502.02558v3
- Date: Sun, 06 Jul 2025 03:13:15 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-07-08 15:46:34.213037
- Title: Particle Trajectory Representation Learning with Masked Point Modeling
- Title(参考訳): マスケプポイントモデリングによる粒子軌道表現学習
- Authors: Sam Young, Yeon-jae Jwa, Kazuhiro Terao,
- Abstract要約: 液体アルゴン時間射影チャンバー(LArTPC)は基礎物理学のための高解像度3Dイメージングを提供する。
本稿では,LARTPC画像にマスク付きポイントモデリングを適用した,ポイントベースLiquid Argon Masked Autoencoder (PoLAr-MAE)を提案する。
このSSLアプローチは,データから直接物理的に意味のある軌道表現を学習する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Effective self-supervised learning (SSL) techniques have been key to unlocking large datasets for representation learning. While many promising methods have been developed using online corpora and captioned photographs, their application to scientific domains, where data encodes highly specialized knowledge, remains a challenge. Liquid Argon Time Projection Chambers (LArTPCs) provide high-resolution 3D imaging for fundamental physics, but analysis of their sparse, complex point cloud data often relies on supervised methods trained on large simulations, introducing potential biases. We introduce the Point-based Liquid Argon Masked Autoencoder (PoLAr-MAE), applying masked point modeling to unlabeled LArTPC images using domain-specific volumetric tokenization and energy prediction. We show this SSL approach learns physically meaningful trajectory representations directly from data. This yields remarkable data efficiency: fine-tuning on just 100 labeled events achieves track/shower semantic segmentation performance comparable to the state-of-the-art supervised baseline trained on $>$100,000 events. Furthermore, internal attention maps exhibit emergent instance segmentation of particle trajectories. While challenges remain, particularly for fine-grained features, we make concrete SSL's potential for building a foundation model for LArTPC image analysis capable of serving as a common base for all data reconstruction tasks. To facilitate further progress, we release PILArNet-M, a large dataset of 1M LArTPC events. Project site: https://youngsm.com/polarmae.
- Abstract(参考訳): 効率的な自己教師付き学習(SSL)技術は、表現学習のために大規模なデータセットをアンロックする鍵となった。
オンラインコーパスとキャプション付き写真を用いて多くの有望な手法が開発されているが、データに高度に専門知識をエンコードする科学分野への応用は依然として課題である。
液体アルゴン時間射影チャンバー(LArTPC)は、基本的な物理学のために高解像度の3Dイメージングを提供するが、その疎い複雑な点雲データの解析は、しばしば大きなシミュレーションで訓練された教師付き手法に依存し、潜在的なバイアスをもたらす。
我々は、ドメイン固有のボリュームトークン化とエネルギー予測を用いて、未ラベルのLArTPC画像にマスク付きポイントモデリングを適用する、ポイントベースLiquid Argon Masked Autoencoder (PoLAr-MAE)を紹介した。
このSSLアプローチは,データから直接物理的に意味のある軌道表現を学習する。
100以上のラベル付きイベントの微調整は、100,000ドルのイベントでトレーニングされた最先端の教師付きベースラインに匹敵するトラック/ショワーセマンティックセグメンテーションのパフォーマンスを達成する。
さらに、内部の注意マップは、粒子軌道の創発的なインスタンスセグメンテーションを示す。
特に細かな機能では課題が残るが、すべてのデータ再構成タスクの共通基盤として機能するLArTPC画像解析の基礎モデルを構築する上で、SSLの具体的な可能性を秘めている。
1M LArTPCイベントの大規模なデータセットであるPILArNet-Mをリリースする。
プロジェクトサイト: https://youngsm.com/polarmae.com
関連論文リスト
- PDM-SSD: Single-Stage Three-Dimensional Object Detector With Point Dilation [7.113034810057012]
現在のポイントベースの検出器は、提供されたポイントからしか学べない。
単段3次元検出のための新しい点拡散機構(PDM-SSD)を提案する。
PDM-SSDは,68フレームの推論速度を持つ単一モード法において,マルチクラス検出の最先端性を実現する。
論文 参考訳(メタデータ) (2025-02-10T12:41:13Z) - Unsupervised Machine Learning for Detecting and Locating Human-Made Objects in 3D Point Cloud [4.325161601374467]
本研究は,自然木構造中の人工物の検出と同定という,新しい課題を紹介する。
提案手法は, 地中フィルタリング, 局所情報抽出, クラスタリングの3段階からなる。
実験により,提案手法は従来の手法よりも優れた性能を示した。
論文 参考訳(メタデータ) (2024-10-25T23:20:57Z) - Parameter-Efficient Fine-Tuning in Spectral Domain for Point Cloud Learning [49.91297276176978]
私たちは小説を提案します。
ポイントGST (Point GST) と呼ばれる点雲の効率的な微細調整法。
ポイントGSTは事前トレーニングされたモデルを凍結し、スペクトル領域のパラメータを微調整するためのトレーニング可能なポイントクラウドスペクトルアダプタ(PCSA)を導入する。
挑戦的なポイントクラウドデータセットに関する大規模な実験は、ポイントGSTが完全に微調整されたデータセットを上回るだけでなく、トレーニング可能なパラメータを大幅に削減することを示した。
論文 参考訳(メタデータ) (2024-10-10T17:00:04Z) - MAELi: Masked Autoencoder for Large-Scale LiDAR Point Clouds [13.426810473131642]
Masked AutoEncoder for LiDAR Point clouds (MAELi) は、復元中にエンコーダとデコーダの両方でLiDARポイントクラウドの空間性を直感的に活用する。
新たな再構築アプローチでは、MAELiは空空間と隠された空間を区別する。
これにより、MAELiは基礎となる3次元シーンの幾何学と意味論の理解を得る。
論文 参考訳(メタデータ) (2022-12-14T13:10:27Z) - LESS: Label-Efficient Semantic Segmentation for LiDAR Point Clouds [62.49198183539889]
我々は,LiDAR点雲を用いた屋外シーンのためのラベル効率のよいセマンティックセマンティックセマンティクスパイプラインを提案する。
本手法は,半弱教師付き学習を用いて,効率的なラベリング手法を設計する。
提案手法は,100%ラベル付き完全教師付き手法と比較して,さらに競争力が高い。
論文 参考訳(メタデータ) (2022-10-14T19:13:36Z) - Point-M2AE: Multi-scale Masked Autoencoders for Hierarchical Point Cloud
Pre-training [56.81809311892475]
Masked Autoencoders (MAE) は、言語と2次元画像変換器の自己教師付き事前学習において大きな可能性を示している。
我々は3次元点雲の階層的自己教師型学習のための強力なマルチスケールMAE事前学習フレームワークであるPoint-M2AEを提案する。
論文 参考訳(メタデータ) (2022-05-28T11:22:53Z) - Open-Set Semi-Supervised Learning for 3D Point Cloud Understanding [62.17020485045456]
半教師付き学習(SSL)では、ラベル付きデータと同じ分布からラベル付きデータが引き出されることが一般的である。
サンプル重み付けによりラベルなしデータを選択的に活用することを提案する。
論文 参考訳(メタデータ) (2022-05-02T16:09:17Z) - Learning Semantic Segmentation of Large-Scale Point Clouds with Random
Sampling [52.464516118826765]
我々はRandLA-Netを紹介した。RandLA-Netは、大規模ポイントクラウドのポイントごとの意味を推論する、効率的で軽量なニューラルネットワークアーキテクチャである。
我々のアプローチの鍵は、より複雑な点選択アプローチではなく、ランダムな点サンプリングを使用することである。
我々のRandLA-Netは、既存のアプローチよりも最大200倍高速な1回のパスで100万ポイントを処理できます。
論文 参考訳(メタデータ) (2021-07-06T05:08:34Z) - MST: Masked Self-Supervised Transformer for Visual Representation [52.099722121603506]
Transformerは自然言語処理(NLP)における自己教師型事前学習に広く利用されている。
我々は、画像の局所的コンテキストを明示的にキャプチャできる、MSTと呼ばれる新しいMasked Self-supervised Transformerアプローチを提案する。
MSTは、線形評価による300エポック事前トレーニングのみを使用して、DeiT-Sで76.9%のTop-1精度を達成する。
論文 参考訳(メタデータ) (2021-06-10T11:05:18Z) - A Nearest Neighbor Network to Extract Digital Terrain Models from 3D
Point Clouds [1.6249267147413524]
本稿では,3Dポイントのクラウド上で動作し,エンド・ツー・エンドのアプローチを用いてシーンの基盤となるDTMを推定するアルゴリズムを提案する。
我々のモデルは近隣情報を学習し、これをポイントワイドでブロックワイドなグローバルな特徴とシームレスに統合する。
論文 参考訳(メタデータ) (2020-05-21T15:54:55Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。