論文の概要: Timealign: A multi-modal object detection method for time misalignment fusing in autonomous driving
- arxiv url: http://arxiv.org/abs/2412.10033v1
- Date: Fri, 13 Dec 2024 10:48:38 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-12-16 15:02:43.750613
- Title: Timealign: A multi-modal object detection method for time misalignment fusing in autonomous driving
- Title(参考訳): Timealign: 自律運転における時間的誤認識のためのマルチモーダル物体検出法
- Authors: Zhihang Song, Lihui Peng, Jianming Hu, Danya Yao, Yi Zhang,
- Abstract要約: Timealignモジュールは、SOTA GraphBEVフレームワークに基づいて、LiDAR機能を予測し、監視と組み合わせて、そのような時間的ミスアライメントに取り組む。
我々の研究は、LiDARのデータラグが存在するときの特徴の整合性を改善するために、LiDARの歴史的フレームを使用した。
- 参考スコア(独自算出の注目度): 7.601405124830806
- License:
- Abstract: The multi-modal perception methods are thriving in the autonomous driving field due to their better usage of complementary data from different sensors. Such methods depend on calibration and synchronization between sensors to get accurate environmental information. There have already been studies about space-alignment robustness in autonomous driving object detection process, however, the research for time-alignment is relatively few. As in reality experiments, LiDAR point clouds are more challenging for real-time data transfer, our study used historical frames of LiDAR to better align features when the LiDAR data lags exist. We designed a Timealign module to predict and combine LiDAR features with observation to tackle such time misalignment based on SOTA GraphBEV framework.
- Abstract(参考訳): マルチモーダル認識法は、異なるセンサーからの補完的なデータをよりよく利用するため、自律運転分野で繁栄している。
このような方法は、正確な環境情報を得るためにセンサー間の校正と同期に依存する。
自律走行物体検出プロセスにおける空間配向ロバスト性に関する研究はすでに行われているが、時間配向に関する研究は比較的少ない。
実際の実験のように、リアルタイムデータ転送にはLiDARポイントクラウドの方が難しいため、我々の研究では、LiDARのデータラグが存在する場合に、LiDARの歴史的フレームを使用して、特徴の整合性を向上した。
We designed a Timealign module to predict and combine LiDAR features with observed to tackle such time misalignment based on SOTA GraphBEV framework。
関連論文リスト
- StreamLTS: Query-based Temporal-Spatial LiDAR Fusion for Cooperative Object Detection [0.552480439325792]
我々は、広く使われているデータセットOPV2VとDairV2Xを適応させる、TA-COOD(Time-Aligned Cooperative Object Detection)を提案する。
実験結果から, 最先端の高密度モデルと比較して, 完全スパースフレームワークの優れた効率性が確認された。
論文 参考訳(メタデータ) (2024-07-04T10:56:10Z) - Improved LiDAR Odometry and Mapping using Deep Semantic Segmentation and
Novel Outliers Detection [1.0334138809056097]
高速移動プラットフォームのためのLOAMアーキテクチャに基づくリアルタイムLiDARオドメトリーとマッピングのための新しいフレームワークを提案する。
本フレームワークは,ディープラーニングモデルによって生成された意味情報を用いて,ポイント・ツー・ラインとポイント・ツー・プレーンのマッチングを改善する。
高速動作に対するLiDARオドメトリーのロバスト性に及ぼすマッチング処理の改善効果について検討した。
論文 参考訳(メタデータ) (2024-03-05T16:53:24Z) - TimePillars: Temporally-Recurrent 3D LiDAR Object Detection [8.955064958311517]
TimePillarsは時間的にリカレントなオブジェクト検出パイプラインである。
時間にわたってLiDARデータの柱表現を利用する。
基礎的なビルディングブロックがいかに堅牢で効率的な結果を得るのに十分なかを示す。
論文 参考訳(メタデータ) (2023-12-22T10:25:27Z) - Traj-LO: In Defense of LiDAR-Only Odometry Using an Effective
Continuous-Time Trajectory [20.452961476175812]
本文では,LiDARのみのオドメトリーを連続的視点で検討する。
提案するTraj-LOアプローチは,LiDARの空間的・時間的一貫した動きを回復しようとする。
私たちの実装はGitHubでオープンソース化されています。
論文 参考訳(メタデータ) (2023-09-25T03:05:06Z) - Unsupervised Domain Adaptation for Self-Driving from Past Traversal
Features [69.47588461101925]
本研究では,新しい運転環境に3次元物体検出器を適応させる手法を提案する。
提案手法は,空間的量子化履歴特徴を用いたLiDARに基づく検出モデルを強化する。
実世界のデータセットの実験では、大幅な改善が示されている。
論文 参考訳(メタデータ) (2023-09-21T15:00:31Z) - TrajMatch: Towards Automatic Spatio-temporal Calibration for Roadside
LiDARs through Trajectory Matching [12.980324010888664]
我々は,道路沿いのLiDARを時間と空間の両方で自動調整できる最初のシステムであるTrajMatchを提案する。
実験の結果,TrajMatchは空間キャリブレーション誤差が10cm未満であり,時間キャリブレーション誤差が1.5ms未満であることがわかった。
論文 参考訳(メタデータ) (2023-02-04T12:27:01Z) - Benchmarking the Robustness of LiDAR-Camera Fusion for 3D Object
Detection [58.81316192862618]
自律運転における3D知覚のための2つの重要なセンサーは、カメラとLiDARである。
これら2つのモダリティを融合させることで、3次元知覚モデルの性能を大幅に向上させることができる。
我々は、最先端の核融合法を初めてベンチマークした。
論文 参考訳(メタデータ) (2022-05-30T09:35:37Z) - Stress-Testing LiDAR Registration [52.24383388306149]
本稿では,LiDARデータセットからフレームペアの挑戦的集合である平衡登録集合を選択する手法を提案する。
おそらく予想外のことに、最も高速かつ同時に正確なアプローチは、先進RANSACのバージョンであることがわかった。
論文 参考訳(メタデータ) (2022-04-16T05:10:55Z) - Learning Moving-Object Tracking with FMCW LiDAR [53.05551269151209]
新たに開発したLiDARセンサである周波数変調連続波(FMCW)を用いた学習型移動物体追跡手法を提案する。
ラベルが与えられた場合,同じインスタンスから機能を埋め込みスペースにまとめて,異なるインスタンスから機能を分離してトラッキング品質を向上させる,対照的な学習フレームワークを提案する。
論文 参考訳(メタデータ) (2022-03-02T09:11:36Z) - Automatic Extrinsic Calibration Method for LiDAR and Camera Sensor
Setups [68.8204255655161]
本論文では,LiDAR,単眼,ステレオカメラを含む任意のセンサのパラメータを校正する手法を提案する。
提案手法は、通常、車両のセットアップで見られるように、非常に異なる解像度とポーズのデバイスを扱うことができる。
論文 参考訳(メタデータ) (2021-01-12T12:02:26Z) - LIBRE: The Multiple 3D LiDAR Dataset [54.25307983677663]
We present LIBRE: LiDAR Benchmarking and Reference, a first-of-in-kind dataset with 10 different LiDAR sensor。
LIBREは、現在利用可能なLiDARを公平に比較するための手段を提供するために、研究コミュニティに貢献する。
また、既存の自動運転車やロボティクス関連のソフトウェアの改善も促進する。
論文 参考訳(メタデータ) (2020-03-13T06:17:39Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。