論文の概要: Addressing Data Misalignment in Image-LiDAR Fusion on Point Cloud
Segmentation
- arxiv url: http://arxiv.org/abs/2309.14932v1
- Date: Tue, 26 Sep 2023 13:41:30 GMT
- ステータス: 処理完了
- システム内更新日: 2023-09-27 13:32:36.930426
- Title: Addressing Data Misalignment in Image-LiDAR Fusion on Point Cloud
Segmentation
- Title(参考訳): 点雲セグメンテーションにおける画像-LiDAR融合におけるデータの相違
- Authors: Wei Jong Yang, Guan Cheng Lee
- Abstract要約: 我々は,LiDAR点の投影位置が対応する画像に誤認識されることがしばしばあることを示した。
本稿では,核融合モデル2DPASSの nuScenes データセットと SOTA に着目し,この問題を慎重に解決したい。
- 参考スコア(独自算出の注目度): 0.391609470658968
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: With the advent of advanced multi-sensor fusion models, there has been a
notable enhancement in the performance of perception tasks within in terms of
autonomous driving. Despite these advancements, the challenges persist,
particularly in the fusion of data from cameras and LiDAR sensors. A critial
concern is the accurate alignment of data from these disparate sensors. Our
observations indicate that the projected positions of LiDAR points often
misalign on the corresponding image. Furthermore, fusion models appear to
struggle in accurately segmenting these misaligned points. In this paper, we
would like to address this problem carefully, with a specific focus on the
nuScenes dataset and the SOTA of fusion models 2DPASS, and providing the
possible solutions or potential improvements.
- Abstract(参考訳): 先進的なマルチセンサー融合モデルの出現により、自律運転における知覚タスクの性能が顕著に向上した。
これらの進歩にもかかわらず、特にカメラとLiDARセンサーからのデータの統合には課題が続いている。
クライシャルな懸念は、これらの異なるセンサーからのデータの正確なアライメントである。
以上の結果から,LiDAR点の投影位置が対応する画像に誤っていることが示唆された。
さらに、融合モデルはこれらの不整合点を正確にセグメンテーションするのに苦労しているように見える。
本稿では, 核融合モデル2DPASS の nuScenes データセットと SOTA に着目して, この問題を慎重に解決し, 潜在的な解決策や改善の可能性を提供する。
関連論文リスト
- Refining the ONCE Benchmark with Hyperparameter Tuning [45.55545585587993]
本研究は、ポイントクラウドデータに対する半教師付き学習アプローチの評価に焦点を当てる。
データアノテーションは、LiDARアプリケーションのコンテキストにおいて最も重要である。
従来の半教師付き手法による改善は,従来考えられていたほど深くない可能性が示唆された。
論文 参考訳(メタデータ) (2023-11-10T13:39:07Z) - LiDAR-Camera Panoptic Segmentation via Geometry-Consistent and
Semantic-Aware Alignment [63.83894701779067]
我々は,最初のLiDAR-Camera Panoptic NetworkであるLCPSを提案する。
提案手法では,LiDAR-Camera融合を3段階に分けて行う。
我々の融合戦略は、NuScenesデータセット上のLiDARのみのベースラインに対して、約6.9%のPQ性能を改善する。
論文 参考訳(メタデータ) (2023-08-03T10:57:58Z) - Towards a Robust Sensor Fusion Step for 3D Object Detection on Corrupted
Data [4.3012765978447565]
この研究は、データの破損に対処し、3Dオブジェクト検出のためのセンサ融合をより堅牢にする新しい融合ステップを示す。
提案手法は,通常のデータに対する最先端手法と同等に動作し,不整合データに対して性能を向上することを示す。
論文 参考訳(メタデータ) (2023-06-12T18:06:29Z) - From One to Many: Dynamic Cross Attention Networks for LiDAR and Camera
Fusion [12.792769704561024]
既存の融合法では、キャリブレーションに基づいて、各3Dポイントを1つの投影された画像ピクセルに調整する傾向がある。
本稿では,動的クロスアテンション(DCA)モジュールを提案する。
Dynamic Cross Attention Network (DCAN) という名称の核融合アーキテクチャは、マルチレベルイメージ機能を活用し、ポイントクラウドの複数の表現に適応する。
論文 参考訳(メタデータ) (2022-09-25T16:10:14Z) - MSMDFusion: Fusing LiDAR and Camera at Multiple Scales with Multi-Depth
Seeds for 3D Object Detection [89.26380781863665]
自律運転システムにおける高精度で信頼性の高い3次元物体検出を実現するためには,LiDARとカメラ情報の融合が不可欠である。
近年のアプローチでは、2次元カメラ画像の3次元空間への昇華点によるカメラ特徴のセマンティックな密度の探索が試みられている。
マルチグラニュラリティLiDARとカメラ機能とのマルチスケールなプログレッシブインタラクションに焦点を当てた,新しいフレームワークを提案する。
論文 参考訳(メタデータ) (2022-09-07T12:29:29Z) - Benchmarking the Robustness of LiDAR-Camera Fusion for 3D Object
Detection [58.81316192862618]
自律運転における3D知覚のための2つの重要なセンサーは、カメラとLiDARである。
これら2つのモダリティを融合させることで、3次元知覚モデルの性能を大幅に向上させることができる。
我々は、最先端の核融合法を初めてベンチマークした。
論文 参考訳(メタデータ) (2022-05-30T09:35:37Z) - TransFusion: Robust LiDAR-Camera Fusion for 3D Object Detection with
Transformers [49.689566246504356]
そこで本研究では,LiDAR-カメラ融合に対するソフトアソシエーション機構による堅牢な解であるTransFusionを提案する。
TransFusionは大規模データセット上で最先端のパフォーマンスを実現する。
提案手法を3次元トラッキングタスクに拡張し,nuScenesトラッキングのリーダーボードにおける第1位を達成する。
論文 参考訳(メタデータ) (2022-03-22T07:15:13Z) - LIF-Seg: LiDAR and Camera Image Fusion for 3D LiDAR Semantic
Segmentation [78.74202673902303]
本稿では,LiDAR分割のための粗大なLiDARとカメラフュージョンベースネットワーク(LIF-Seg)を提案する。
提案手法は,画像の文脈情報を完全に活用し,単純だが効果的な早期融合戦略を導入する。
これら2つのコンポーネントの協力により、効果的なカメラ-LiDAR融合が成功する。
論文 参考訳(メタデータ) (2021-08-17T08:53:11Z) - Deep Learning for Image and Point Cloud Fusion in Autonomous Driving: A
Review [15.10767676137607]
カメラとLiDARの融合は新たな研究テーマになりつつある。
本稿では、画像と点クラウドの両方を活用するディープラーニングベースのデータ融合アプローチについてレビューする。
我々は、現在の学術研究と現実世界の応用の間のギャップと見過ごされた課題を識別する。
論文 参考訳(メタデータ) (2020-04-10T20:43:14Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。