論文の概要: LiDAR View Synthesis for Robust Vehicle Navigation Without Expert Labels
- arxiv url: http://arxiv.org/abs/2308.01424v2
- Date: Sat, 5 Aug 2023 19:25:14 GMT
- ステータス: 処理完了
- システム内更新日: 2023-08-08 20:09:29.542398
- Title: LiDAR View Synthesis for Robust Vehicle Navigation Without Expert Labels
- Title(参考訳): エキスパートラベルのないロバスト車両ナビゲーションのためのLiDARビュー合成
- Authors: Jonathan Schmidt, Qadeer Khan, Daniel Cremers
- Abstract要約: 我々は、危険な位置で物理的に運転することなく、新しい視点からLiDAR点雲を合成することを提案する。
我々は、LiDARスキャンを入力とし、将来の軌跡を出力として予測するディープラーニングモデルを訓練する。
次に、この予測軌道にウェイポイントコントローラを適用して、エゴ車両のスロットルおよびステアリングラベルを決定する。
- 参考スコア(独自算出の注目度): 50.40632021583213
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Deep learning models for self-driving cars require a diverse training dataset
to manage critical driving scenarios on public roads safely. This includes
having data from divergent trajectories, such as the oncoming traffic lane or
sidewalks. Such data would be too dangerous to collect in the real world. Data
augmentation approaches have been proposed to tackle this issue using RGB
images. However, solutions based on LiDAR sensors are scarce. Therefore, we
propose synthesizing additional LiDAR point clouds from novel viewpoints
without physically driving at dangerous positions. The LiDAR view synthesis is
done using mesh reconstruction and ray casting. We train a deep learning model,
which takes a LiDAR scan as input and predicts the future trajectory as output.
A waypoint controller is then applied to this predicted trajectory to determine
the throttle and steering labels of the ego-vehicle. Our method neither
requires expert driving labels for the original nor the synthesized LiDAR
sequence. Instead, we infer labels from LiDAR odometry. We demonstrate the
effectiveness of our approach in a comprehensive online evaluation and with a
comparison to concurrent work. Our results show the importance of synthesizing
additional LiDAR point clouds, particularly in terms of model robustness.
Project page: https://jonathsch.github.io/lidar-synthesis/
- Abstract(参考訳): 自動運転車のディープラーニングモデルは、公道における重要な運転シナリオを安全に管理するために、さまざまなトレーニングデータセットを必要とする。
これには、対向車線や歩道など、分岐した軌跡からのデータが含まれる。
このようなデータは現実世界で収集するには危険すぎる。
RGB画像を用いたデータ拡張手法が提案されている。
しかし、LiDARセンサーに基づくソリューションは少ない。
そこで本稿では,新たな視点からLiDAR点雲を合成することを提案する。
LiDARビュー合成はメッシュ再構成とレイキャスティングを用いて行われる。
我々は、LiDARスキャンを入力とし、将来の軌跡を出力として予測するディープラーニングモデルを訓練する。
次に、この予測軌道にウェイポイントコントローラを適用し、エゴ車両のスロットルおよびステアリングラベルを決定する。
本手法では,原本および合成lidar系列のエキスパート駆動ラベルを必要としない。
代わりに、LiDARオドメトリーからラベルを推測する。
提案手法の有効性を網羅的なオンライン評価と同時作業との比較で示す。
以上の結果から,特にモデルロバスト性の観点からLiDAR点雲の合成の重要性が示唆された。
プロジェクトページ: https://jonathsch.github.io/lidar- synthesis/
関連論文リスト
- LiDAR-GS:Real-time LiDAR Re-Simulation using Gaussian Splatting [50.808933338389686]
LiDARシミュレーションは、自動運転におけるクローズドループシミュレーションにおいて重要な役割を果たす。
都市景観におけるLiDARセンサスキャンをリアルタイムに再現するために,最初のLiDARガウス法であるLiDAR-GSを提案する。
我々の手法は、深度、強度、レイドロップチャンネルを同時に再現することに成功し、公開可能な大規模シーンデータセットにおけるフレームレートと品質の両方のレンダリング結果を達成する。
論文 参考訳(メタデータ) (2024-10-07T15:07:56Z) - TeFF: Tracking-enhanced Forgetting-free Few-shot 3D LiDAR Semantic Segmentation [10.628870775939161]
本稿では,LiDARデータの時間的連続性を利用して,現在の数ショットセマンティックセマンティックセマンティクスの限界に対処する。
追跡モデルを用いて、LiDARフレームのシーケンスから擬似地下構造を生成し、新しいクラスで学習するデータセットの能力を向上する。
トレーニング可能なパラメータの数を減らし,新しいクラスへの適応性を向上しつつ,ベースクラス上でのモデル性能を保留するテクニックであるLoRAを取り入れた。
論文 参考訳(メタデータ) (2024-08-28T09:18:36Z) - UltraLiDAR: Learning Compact Representations for LiDAR Completion and
Generation [51.443788294845845]
我々は、シーンレベルのLiDAR補完、LiDAR生成、LiDAR操作のためのデータ駆動フレームワークであるUltraLiDARを提案する。
スパース点雲の表現を高密度点雲の表現に合わせることで、スパース点雲を密度化できることが示される。
個別のコードブック上で事前学習を行うことで、多種多様な現実的なLiDARポイントクラウドを自動走行のために生成できます。
論文 参考訳(メタデータ) (2023-11-02T17:57:03Z) - Advancements in 3D Lane Detection Using LiDAR Point Clouds: From Data Collection to Model Development [10.78971892551972]
LiSV-3DLaneは大規模な3Dレーンデータセットで、20kフレームのサラウンドビューのLiDAR点雲と豊富なセマンティックアノテーションから構成される。
本稿では,LiDARを用いた新しい3次元車線検出モデルLiLaDetを提案し,LiDAR点雲の空間的幾何学的学習をBird's Eye View (BEV) に基づく車線識別に取り入れた。
論文 参考訳(メタデータ) (2023-09-24T09:58:49Z) - NeRF-LiDAR: Generating Realistic LiDAR Point Clouds with Neural Radiance
Fields [20.887421720818892]
実世界の情報を利用してリアルなLIDAR点雲を生成する新しいLiDARシミュレーション手法であるNeRF-LIDARを提案する。
我々は,生成したLiDAR点雲上で異なる3次元セグメンテーションモデルをトレーニングすることにより,NeRF-LiDARの有効性を検証する。
論文 参考訳(メタデータ) (2023-04-28T12:41:28Z) - Learning to Simulate Realistic LiDARs [66.7519667383175]
リアルLiDARセンサのデータ駆動シミュレーションのためのパイプラインを提案する。
本モデルでは, 透明表面上の落下点などの現実的な効果を符号化できることが示される。
我々は2つの異なるLiDARセンサのモデルを学習し、それに従ってシミュレーションされたLiDARデータを改善する。
論文 参考訳(メタデータ) (2022-09-22T13:12:54Z) - BEVFusion: A Simple and Robust LiDAR-Camera Fusion Framework [20.842800465250775]
現在の手法では、LiDARセンサーの点雲をクエリとして利用し、画像空間の機能を活用している。
我々は、カメラストリームがLiDARデータの入力に依存しないBEVFusionと呼ばれる驚くほど単純で斬新な融合フレームワークを提案する。
通常のトレーニング環境下では,我々のフレームワークが最先端の手法を超越していることを実証的に示す。
論文 参考訳(メタデータ) (2022-05-27T06:58:30Z) - Efficient and Robust LiDAR-Based End-to-End Navigation [132.52661670308606]
我々は,LiDARをベースとした効率的なエンドツーエンドナビゲーションフレームワークを提案する。
本稿では,スパース畳み込みカーネル最適化とハードウェア対応モデル設計に基づくFast-LiDARNetを提案する。
次に,単一の前方通過のみから予測の不確かさを直接推定するハイブリッド・エビデンシャル・フュージョンを提案する。
論文 参考訳(メタデータ) (2021-05-20T17:52:37Z) - Physically Realizable Adversarial Examples for LiDAR Object Detection [72.0017682322147]
本稿では,LiDAR検出器を騙すために,汎用な3次元対向物体を生成する手法を提案する。
特に,LiDAR検出器から車両を完全に隠蔽するために,車両の屋根上に対向物体を配置し,その成功率は80%であることを示した。
これは、限られたトレーニングデータから見知らぬ条件下での、より安全な自動運転への一歩だ。
論文 参考訳(メタデータ) (2020-04-01T16:11:04Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。