論文の概要: Semantic Segmentation Algorithm Based on Light Field and LiDAR Fusion
- arxiv url: http://arxiv.org/abs/2510.06687v1
- Date: Wed, 08 Oct 2025 06:15:06 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-09 16:41:20.331757
- Title: Semantic Segmentation Algorithm Based on Light Field and LiDAR Fusion
- Title(参考訳): 光場とLiDAR融合に基づくセマンティックセグメンテーションアルゴリズム
- Authors: Jie Luo, Yuxuan Jiang, Xin Jin, Mingyu Liu, Yihui Fan,
- Abstract要約: 本稿では,光場データと点クラウドデータを組み合わせた最初のマルチモーダルセマンティックセマンティックセマンティクスデータセットを提案する。
本手法は,画像のみのセグメンテーションを1.71Mean Intersection over Union(mIoU)で,点雲のみのセグメンテーションを2.38mIoUで上回り,その効果を示す。
- 参考スコア(独自算出の注目度): 23.0804908886806
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Semantic segmentation serves as a cornerstone of scene understanding in autonomous driving but continues to face significant challenges under complex conditions such as occlusion. Light field and LiDAR modalities provide complementary visual and spatial cues that are beneficial for robust perception; however, their effective integration is hindered by limited viewpoint diversity and inherent modality discrepancies. To address these challenges, the first multimodal semantic segmentation dataset integrating light field data and point cloud data is proposed. Based on this dataset, we proposed a multi-modal light field point-cloud fusion segmentation network(Mlpfseg), incorporating feature completion and depth perception to segment both camera images and LiDAR point clouds simultaneously. The feature completion module addresses the density mismatch between point clouds and image pixels by performing differential reconstruction of point-cloud feature maps, enhancing the fusion of these modalities. The depth perception module improves the segmentation of occluded objects by reinforcing attention scores for better occlusion awareness. Our method outperforms image-only segmentation by 1.71 Mean Intersection over Union(mIoU) and point cloud-only segmentation by 2.38 mIoU, demonstrating its effectiveness.
- Abstract(参考訳): セマンティックセグメンテーションは、自律運転におけるシーン理解の基盤として機能するが、閉塞のような複雑な条件下では重要な課題に直面し続けている。
光場とLiDARモダリティは、堅牢な知覚に有用な相補的な視覚的および空間的手がかりを提供するが、それらの効果的な統合は、限られた視点の多様性と固有のモダリティの相違によって妨げられる。
これらの課題に対処するために、光フィールドデータと点クラウドデータを統合する最初のマルチモーダルセマンティックセマンティックセマンティクスデータセットを提案する。
本データセットに基づいて,マルチモーダル光電場点雲融合分割ネットワーク(Mlpfseg)を提案し,カメラ画像とLiDAR点雲を同時に分割するために特徴補完と深度知覚を取り入れた。
特徴補完モジュールは、点雲特徴写像の差分再構成を行い、これらのモダリティの融合を高めることにより、点雲と画像画素間の密度ミスマッチに対処する。
奥行き認識モジュールは、注意スコアを補強することにより、隠蔽対象のセグメンテーションを改善する。
本手法は,画像のみのセグメンテーションを1.71Mean Intersection over Union(mIoU)で,点雲のみのセグメンテーションを2.38mIoUで上回り,その効果を示す。
関連論文リスト
- Multimodal Point Cloud Semantic Segmentation With Virtual Point Enhancement [10.188196569056332]
LiDARベースの3Dポイントクラウド認識は、様々なアプリケーションで有用であることが証明されている。
空間と密度の変化は、複雑な物体の詳細を捉える上で大きな課題となる。
仮想ポイントエンハンスメントに基づくマルチモーダルポイントクラウドセマンティックセマンティックセマンティックス法を提案する。
論文 参考訳(メタデータ) (2025-04-02T08:02:06Z) - LPRnet: A self-supervised registration network for LiDAR and photogrammetric point clouds [38.42527849407057]
LiDARとフォトグラムは、それぞれポイントクラウド取得のためのアクティブおよびパッシブリモートセンシング技術である。
感知機構、空間分布、座標系に根本的な違いがあるため、それらの点雲は密度、精度、ノイズ、重なり合いにおいて大きな違いを示す。
本稿では, マスク付きオートエンコーダをベースとした自己教師型登録ネットワークを提案し, 異種LiDARと光グラム点雲に着目した。
論文 参考訳(メタデータ) (2025-01-10T02:36:37Z) - Point Cloud Understanding via Attention-Driven Contrastive Learning [64.65145700121442]
トランスフォーマーベースのモデルは、自己認識機構を活用することにより、先進的なポイントクラウド理解を持つ。
PointACLは、これらの制限に対処するために設計された、注意駆動のコントラスト学習フレームワークである。
本手法では, 注意駆動型動的マスキング手法を用いて, モデルが非集中領域に集中するように誘導する。
論文 参考訳(メタデータ) (2024-11-22T05:41:00Z) - LiDAR-Camera Panoptic Segmentation via Geometry-Consistent and
Semantic-Aware Alignment [63.83894701779067]
我々は,最初のLiDAR-Camera Panoptic NetworkであるLCPSを提案する。
提案手法では,LiDAR-Camera融合を3段階に分けて行う。
我々の融合戦略は、NuScenesデータセット上のLiDARのみのベースラインに対して、約6.9%のPQ性能を改善する。
論文 参考訳(メタデータ) (2023-08-03T10:57:58Z) - OAFuser: Towards Omni-Aperture Fusion for Light Field Semantic Segmentation [48.828453331724965]
我々は,Omni-Aperture Fusion Model (OAFuser) を提案する。
提案したOAFuserは,すべての評価指標から4つのUrbanLFデータセット上での最先端のパフォーマンスを実現する。
論文 参考訳(メタデータ) (2023-07-28T14:43:27Z) - EPMF: Efficient Perception-aware Multi-sensor Fusion for 3D Semantic Segmentation [62.210091681352914]
自律運転やロボティクスなど,多くのアプリケーションを対象とした3次元セマンティックセマンティックセグメンテーションのためのマルチセンサフュージョンについて検討する。
本研究では,知覚認識型マルチセンサフュージョン(PMF)と呼ばれる協調融合方式について検討する。
本稿では,2つのモードから特徴を分離して抽出する2ストリームネットワークを提案する。
論文 参考訳(メタデータ) (2021-06-21T10:47:26Z) - Semantic Segmentation for Real Point Cloud Scenes via Bilateral
Augmentation and Adaptive Fusion [38.05362492645094]
現実世界の複雑な環境を直感的に捉えることができますが、3Dデータの生の性質のため、機械認識にとって非常に困難です。
我々は、現実に収集された大規模クラウドデータに対して、重要な視覚的タスク、セマンティックセグメンテーションに集中する。
3つのベンチマークで最先端のネットワークと比較することにより,ネットワークの有効性を実証する。
論文 参考訳(メタデータ) (2021-03-12T04:13:20Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。