論文の概要: SRMambaV2: Biomimetic Attention for Sparse Point Cloud Upsampling in Autonomous Driving
- arxiv url: http://arxiv.org/abs/2507.17479v1
- Date: Wed, 23 Jul 2025 13:01:19 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-07-24 22:33:14.999355
- Title: SRMambaV2: Biomimetic Attention for Sparse Point Cloud Upsampling in Autonomous Driving
- Title(参考訳): SRMambaV2: 自律運転におけるスパースポイントクラウドアップサンプリングのためのバイオミメティックアテンション
- Authors: Chuang Chen, Xiaolin Qin, Jing Hu, Wenyi Ge,
- Abstract要約: 自律運転シナリオにおけるLiDARポイントクラウドのアップサンプリングは、データ固有の空間性と複雑な3D構造のため、依然として大きな課題である。
本研究では,長距離スパース領域におけるアップサンプリング精度を高めるスパルス点雲アップサンプリング手法であるNonambaV2を提案する。
実験により,ambaV2は定性評価と定量的評価の両方において優れた性能を示した。
- 参考スコア(独自算出の注目度): 5.37678005473655
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Upsampling LiDAR point clouds in autonomous driving scenarios remains a significant challenge due to the inherent sparsity and complex 3D structures of the data. Recent studies have attempted to address this problem by converting the complex 3D spatial scenes into 2D image super-resolution tasks. However, due to the sparse and blurry feature representation of range images, accurately reconstructing detailed and complex spatial topologies remains a major difficulty. To tackle this, we propose a novel sparse point cloud upsampling method named SRMambaV2, which enhances the upsampling accuracy in long-range sparse regions while preserving the overall geometric reconstruction quality. Specifically, inspired by human driver visual perception, we design a biomimetic 2D selective scanning self-attention (2DSSA) mechanism to model the feature distribution in distant sparse areas. Meanwhile, we introduce a dual-branch network architecture to enhance the representation of sparse features. In addition, we introduce a progressive adaptive loss (PAL) function to further refine the reconstruction of fine-grained details during the upsampling process. Experimental results demonstrate that SRMambaV2 achieves superior performance in both qualitative and quantitative evaluations, highlighting its effectiveness and practical value in automotive sparse point cloud upsampling tasks.
- Abstract(参考訳): 自律運転シナリオにおけるLiDARポイントクラウドのアップサンプリングは、データ固有の空間性と複雑な3D構造のため、依然として大きな課題である。
近年の研究では、複雑な3次元空間シーンを2次元画像超解像タスクに変換することでこの問題に対処している。
しかし,領域画像の粗くぼやけた特徴表現のため,詳細かつ複雑な空間トポロジを正確に再構築することは依然として大きな難題である。
そこで本研究では,SRMambaV2と呼ばれるスパルス点雲のアップサンプリング手法を提案する。
具体的には,人間の視覚知覚に触発されて,遠隔地における特徴分布をモデル化するバイオミメティックな2次元選択的スキャン自己注意機構を設計する。
一方,スパース機能の表現性を高めるために,デュアルブランチネットワークアーキテクチャを導入する。
さらに, アップサンプリング過程において, 微細な細部を再構築するために, プログレッシブ・アダプティブ・ロス (PAL) 機能を導入する。
実験結果から, SRMambaV2は定性的, 定量的評価の両面で優れた性能を示し, 自動車用スパース点雲アップサンプリングタスクの有効性と実用性を強調した。
関連論文リスト
- Cross-Modal Geometric Hierarchy Fusion: An Implicit-Submap Driven Framework for Resilient 3D Place Recognition [4.196626042312499]
本稿では,密度に依存しない幾何学的推論により3次元位置認識を再定義するフレームワークを提案する。
具体的には、元のシーンポイント雲密度の干渉に免疫する弾性点に基づく暗黙の3次元表現を導入する。
これら2種類の情報を活用することで,鳥眼視と3Dセグメントの両視点から幾何学的情報を融合する記述子を得る。
論文 参考訳(メタデータ) (2025-06-17T07:04:07Z) - 3D Point Cloud Generation via Autoregressive Up-sampling [60.05226063558296]
我々は3Dポイントクラウド生成のための先駆的な自己回帰生成モデルを導入する。
視覚的自己回帰モデリングにインスパイアされた我々は、ポイントクラウド生成を自己回帰的アップサンプリングプロセスとして概念化する。
PointARUは、3Dポイントの雲を粗いものから細かいものへと徐々に洗練する。
論文 参考訳(メタデータ) (2025-03-11T16:30:45Z) - M3D: Dual-Stream Selective State Spaces and Depth-Driven Framework for High-Fidelity Single-View 3D Reconstruction [3.2228041579285978]
M3Dは複雑なシーンのための新しい単一ビュー3D再構成フレームワークである。
グローバルな特徴と局所的な特徴の抽出のバランスを保ち、シーンの理解と表現精度を向上させる。
その結果,2重分岐特徴抽出による深度情報との融合により,幾何的整合性と忠実度が著しく向上することが示唆された。
論文 参考訳(メタデータ) (2024-11-19T16:49:24Z) - TULIP: Transformer for Upsampling of LiDAR Point Clouds [32.77657816997911]
LiDAR Upは、ロボットや自動運転車の認識システムにとって難しいタスクだ。
近年の研究では、3次元ユークリッド空間からのLiDARデータを2次元画像空間の超解像問題に変換することでこの問題を解決することを提案する。
低分解能LiDAR入力から高分解能LiDAR点雲を再構成する新しい方法であるTジオメトリを提案する。
論文 参考訳(メタデータ) (2023-12-11T10:43:28Z) - PointHPS: Cascaded 3D Human Pose and Shape Estimation from Point Clouds [99.60575439926963]
本稿では,実環境で捉えた点雲から正確な3次元HPSを実現するための基本的フレームワークであるPointHPSを提案する。
PointHPSは、カスケードアーキテクチャを通じてポイント機能を反復的に洗練する。
広範囲な実験により、ポイントHPSは強力な特徴抽出と処理方式を持ち、State-of-the-Art法より優れていることが示された。
論文 参考訳(メタデータ) (2023-08-28T11:10:14Z) - AGO-Net: Association-Guided 3D Point Cloud Object Detection Network [86.10213302724085]
ドメイン適応によるオブジェクトの無傷な特徴を関連付ける新しい3D検出フレームワークを提案する。
我々は,KITTIの3D検出ベンチマークにおいて,精度と速度の両面で最新の性能を実現する。
論文 参考訳(メタデータ) (2022-08-24T16:54:38Z) - BIMS-PU: Bi-Directional and Multi-Scale Point Cloud Upsampling [60.257912103351394]
我々はBIMS-PUと呼ばれる新しいポイント・クラウド・アップサンプリング・パイプラインを開発した。
対象のサンプリング因子を小さな因子に分解することにより,アップ/ダウンサンプリング手順をいくつかのアップ/ダウンサンプリングサブステップに分解する。
提案手法は最先端手法よりも優れた結果が得られることを示す。
論文 参考訳(メタデータ) (2022-06-25T13:13:37Z) - Learning to Drop Points for LiDAR Scan Synthesis [5.132259673802809]
3Dシーンのジェネラティブモデリングは、モバイルロボットが信頼できない観察を改善するための重要なトピックです。
点雲に関する既存の研究のほとんどは、小さく均一な密度のデータに焦点を当てている。
移動ロボットで広く使われている3次元LiDAR点雲は、多数の点と様々な密度のために扱いにくい。
本論文では,リアルなLiDARデータを改良した2次元表現として合成する,ジェネレーティブ・アドバーサリ・ネットワークに基づく新しいフレームワークを提案する。
論文 参考訳(メタデータ) (2021-02-23T21:53:14Z) - SPU-Net: Self-Supervised Point Cloud Upsampling by Coarse-to-Fine
Reconstruction with Self-Projection Optimization [52.20602782690776]
実際のスキャンされたスパースデータからトレーニング用の大規模なペアリングスパーススキャンポイントセットを得るのは高価で面倒です。
本研究では,SPU-Net と呼ばれる自己監視型点群アップサンプリングネットワークを提案する。
本研究では,合成データと実データの両方について様々な実験を行い,最先端の教師付き手法と同等の性能が得られることを示す。
論文 参考訳(メタデータ) (2020-12-08T14:14:09Z) - Pseudo-LiDAR Point Cloud Interpolation Based on 3D Motion Representation
and Spatial Supervision [68.35777836993212]
我々はPseudo-LiDAR点雲ネットワークを提案し、時間的および空間的に高品質な点雲列を生成する。
点雲間のシーンフローを活用することにより,提案ネットワークは3次元空間運動関係のより正確な表現を学習することができる。
論文 参考訳(メタデータ) (2020-06-20T03:11:04Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。