論文の概要: Enhancing 3D LiDAR Segmentation by Shaping Dense and Accurate 2D Semantic Predictions
- arxiv url: http://arxiv.org/abs/2602.18869v1
- Date: Sat, 21 Feb 2026 15:33:41 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-24 17:42:02.368193
- Title: Enhancing 3D LiDAR Segmentation by Shaping Dense and Accurate 2D Semantic Predictions
- Title(参考訳): 3次元LiDARセグメンテーションの高密度化と高精度2次元セマンティック予測
- Authors: Xiaoyu Dong, Tiankui Xian, Wanshui Gan, Naoto Yokoya,
- Abstract要約: 我々は,ラベルマップの間隔とLiDARマップの間隔を克服するマルチモーダルセグメンテーションモデルMM2D3Dを開発した。
実験により,本手法により,高密度分布と高精度な中間2次元意味予測が可能となった。
- 参考スコア(独自算出の注目度): 15.355240225376887
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Semantic segmentation of 3D LiDAR point clouds is important in urban remote sensing for understanding real-world street environments. This task, by projecting LiDAR point clouds and 3D semantic labels as sparse maps, can be reformulated as a 2D problem. However, the intrinsic sparsity of the projected LiDAR and label maps can result in sparse and inaccurate intermediate 2D semantic predictions, which in return limits the final 3D accuracy. To address this issue, we enhance this task by shaping dense and accurate 2D predictions. Specifically, we develop a multi-modal segmentation model, MM2D3D. By leveraging camera images as auxiliary data, we introduce cross-modal guided filtering to overcome label map sparsity by constraining intermediate 2D semantic predictions with dense semantic relations derived from the camera images; and we introduce dynamic cross pseudo supervision to overcome LiDAR map sparsity by encouraging the 2D predictions to emulate the dense distribution of the semantic predictions from the camera images. Experiments show that our techniques enable our model to achieve intermediate 2D semantic predictions with dense distribution and higher accuracy, which effectively enhances the final 3D accuracy. Comparisons with previous methods demonstrate our superior performance in both 2D and 3D spaces.
- Abstract(参考訳): 3次元LiDAR点雲のセマンティックセグメンテーションは、現実世界の街路環境を理解するための都市リモートセンシングにおいて重要である。
このタスクは、LiDARポイントクラウドと3Dセマンティックラベルをスパースマップとして投影することで、2D問題として再構成することができる。
しかし、投影されたLiDARとラベルマップの固有の間隔はスパースと不正確な中間2Dセマンティック予測をもたらし、その結果として最終的な3D精度が制限される。
この問題に対処するために,高密度かつ高精度な2次元予測を作成することにより,この課題を強化する。
具体的には,マルチモーダルセグメンテーションモデルMM2D3Dを開発する。
カメライメージを補助データとして活用することにより、中間2次元意味的予測をカメライメージから派生した密接な意味的関係に制約することで、ラベルマップの空間性を克服するクロスモーダルガイドフィルタを導入し、カメライメージからの意味的予測の密集分布をエミュレートする2DARマップ空間の空間的分布を克服する動的クロス疑似監視を導入する。
実験により,本手法により,高密度分布と高精度な中間2次元意味予測が可能となり,最終的な3次元精度を効果的に向上できることが示された。
従来の手法との比較により, 2次元空間と3次元空間の両方において, 優れた性能を示した。
関連論文リスト
- Integrating SAM Supervision for 3D Weakly Supervised Point Cloud Segmentation [66.65719382619538]
3Dセマンティックセグメンテーションの現在の手法では、大きな、不規則な、秩序のない3Dポイントクラウドデータの注釈付けの難しさに対処するため、限定アノテーション付きトレーニングモデルが提案されている。
本稿では,2次元基礎モデルから生成したセグメンテーションマスクを組み込んだ,疎可な3次元アノテーションの有用性を最大化する手法を提案する。
論文 参考訳(メタデータ) (2025-08-27T14:13:01Z) - 3D Can Be Explored In 2D: Pseudo-Label Generation for LiDAR Point Clouds Using Sensor-Intensity-Based 2D Semantic Segmentation [3.192308005611312]
そこで我々は,3次元セマンティックセマンティックセマンティクスパイプラインを導入し,アライメントシーンと最先端2次元セマンティクス手法を利用した。
本手法は,センサ強度で色付けされたLiDARスキャンから2次元ビューを生成し,これらのビューに2次元セマンティックセマンティックセグメンテーションを適用した。
分割された2D出力は3Dポイントにバックプロジェクターされ、単純な投票ベースの推定器が使用される。
論文 参考訳(メタデータ) (2025-05-06T08:31:32Z) - Semi-supervised 3D Semantic Scene Completion with 2D Vision Foundation Model Guidance [8.07701188057789]
我々は、高密度な注釈付きデータへの依存を軽減するために、新しい半教師付きフレームワークを導入する。
提案手法は2次元基礎モデルを用いて3次元シーンの幾何学的・意味的手がかりを生成する。
本手法は,10%のラベル付きデータを用いて全教師付き性能の最大85%を達成する。
論文 参考訳(メタデータ) (2024-08-21T12:13:18Z) - SSR-2D: Semantic 3D Scene Reconstruction from 2D Images [54.46126685716471]
本研究では,3Dアノテーションを使わずにセマンティックなシーン再構成を行う中心的な3Dシーンモデリングタスクについて検討する。
提案手法の鍵となる考え方は,不完全な3次元再構成と対応するRGB-D画像の両方を用いたトレーニング可能なモデルの設計である。
本研究では,2つの大規模ベンチマークデータセットであるMatterPort3DとScanNetに対して,セマンティックシーン補完の最先端性能を実現する。
論文 参考訳(メタデータ) (2023-02-07T17:47:52Z) - Unleash the Potential of Image Branch for Cross-modal 3D Object
Detection [67.94357336206136]
画像分岐のポテンシャルを2つの側面から解き放つことを目的として,新しい3Dオブジェクト検出器UPIDetを提案する。
まず、UPIDetは正規化された局所座標写像推定と呼ばれる新しい2次元補助タスクを導入する。
第2に,イメージブランチのトレーニング目標から逆転する勾配によって,ポイントクラウドバックボーンの表現能力を向上できることを見出した。
論文 参考訳(メタデータ) (2023-01-22T08:26:58Z) - Cylindrical and Asymmetrical 3D Convolution Networks for LiDAR-based
Perception [122.53774221136193]
運転時のLiDARに基づく認識のための最先端の手法は、しばしば点雲を2D空間に投影し、2D畳み込みによって処理する。
自然な対策として、3Dボクセル化と3D畳み込みネットワークを利用する方法がある。
本研究では,3次元幾何学的パターンを探索するために,円筒状分割と非対称な3次元畳み込みネットワークを設計する,屋外LiDARセグメンテーションのための新しいフレームワークを提案する。
論文 参考訳(メタデータ) (2021-09-12T06:25:11Z) - Multi-Modality Task Cascade for 3D Object Detection [22.131228757850373]
多くの手法は2つのモデルを個別に訓練し、単純な特徴結合を用いて3Dセンサーデータを表現している。
本稿では,3次元ボックスの提案を利用して2次元セグメンテーション予測を改善する新しいマルチモードタスクカスケードネットワーク(MTC-RCNN)を提案する。
2段階の3次元モジュール間の2次元ネットワークを組み込むことで,2次元および3次元のタスク性能が大幅に向上することを示す。
論文 参考訳(メタデータ) (2021-07-08T17:55:01Z) - IMENet: Joint 3D Semantic Scene Completion and 2D Semantic Segmentation
through Iterative Mutual Enhancement [12.091735711364239]
本稿では,3次元セマンティックシーン補完と2次元セマンティックセマンティックセグメンテーションを解決するために,IMENet(Iterative Mutual Enhancement Network)を提案する。
IMENetは、後期予測段階で2つのタスクをインタラクティブに洗練します。
提案手法は,3次元セマンティックシーンの完成と2次元セマンティックセマンティックセグメンテーションの両面において,最先端技術である。
論文 参考訳(メタデータ) (2021-06-29T13:34:20Z) - Cylinder3D: An Effective 3D Framework for Driving-scene LiDAR Semantic
Segmentation [87.54570024320354]
大規模運転シーンのLiDARセマンティックセマンティックセグメンテーションのための最先端の手法は、しばしば2D空間の点雲を投影して処理する。
3D-to-2Dプロジェクションの問題に取り組むための簡単な解決策は、3D表現を保ち、3D空間の点を処理することである。
我々は3次元シリンダー分割と3次元シリンダー畳み込みに基づくフレームワークをCylinder3Dとして開発し,3次元トポロジの関係と運転シーンの点雲の構造を利用する。
論文 参考訳(メタデータ) (2020-08-04T13:56:19Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。