論文の概要: LiDAR-as-Camera for End-to-End Driving
- arxiv url: http://arxiv.org/abs/2206.15170v1
- Date: Thu, 30 Jun 2022 10:06:49 GMT
- ステータス: 処理完了
- システム内更新日: 2022-07-02 00:35:33.015035
- Title: LiDAR-as-Camera for End-to-End Driving
- Title(参考訳): エンド・ツー・エンド駆動用LiDAR-as-Camera
- Authors: Ardi Tampuu, Romet Aidla, Jan Are van Gent, Tambet Matiisen
- Abstract要約: Ouster LiDARは、深度、強度、周囲の放射線チャンネルを備えたサラウンドビューのLiDARイメージを出力することができる。
これらの測定は、同じセンサーから始まり、時間と空間で完全に整列する。
このようなLiDAR画像は、実車走行追従作業に十分であり、テスト条件下では少なくともカメラベースモデルに対して等しく動作することを示す。
研究の第2の方向において、非政治予測シーケンスの時間的スムーズさは、一般的に使用される平均絶対誤差と実際のオンライン運転能力と等しく相関することが明らかとなった。
- 参考スコア(独自算出の注目度): 1.0323063834827415
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The core task of any autonomous driving system is to transform sensory inputs
into driving commands. In end-to-end driving, this is achieved via a neural
network, with one or multiple cameras as the most commonly used input and
low-level driving command, e.g. steering angle, as output. However,
depth-sensing has been shown in simulation to make the end-to-end driving task
easier. On a real car, combining depth and visual information can be
challenging, due to the difficulty of obtaining good spatial and temporal
alignment of the sensors. To alleviate alignment problems, Ouster LiDARs can
output surround-view LiDAR-images with depth, intensity, and ambient radiation
channels. These measurements originate from the same sensor, rendering them
perfectly aligned in time and space. We demonstrate that such LiDAR-images are
sufficient for the real-car road-following task and perform at least equally to
camera-based models in the tested conditions, with the difference increasing
when needing to generalize to new weather conditions. In the second direction
of study, we reveal that the temporal smoothness of off-policy prediction
sequences correlates equally well with actual on-policy driving ability as the
commonly used mean absolute error.
- Abstract(参考訳): あらゆる自律運転システムのコアタスクは、感覚入力を駆動コマンドに変換することである。
エンドツーエンドの駆動では、これはニューラルネットワークを介して達成され、1つまたは複数のカメラを最も一般的に使用される入力および低レベルの駆動コマンド、例えばステアリング角を出力として使用する。
しかし、エンド・ツー・エンドの運転作業を容易にするために、深度センシングがシミュレーションで示されている。
実車では,センサの空間的・時間的アライメントが困難であるため,奥行きと視覚情報を組み合わせることは困難である。
アライメント問題を軽減するために、ouster lidarは深度、強度、環境放射線チャンネルでサラウンドビューlidar画像を出力することができる。
これらの測定は、同じセンサーから始まり、時間と空間に完全に整列する。
このようなLiDAR画像は実車載の道路追従作業に十分であることを示すとともに、テスト条件下では少なくともカメラベースモデルに対して等しく動作し、新しい気象条件に一般化する必要がある場合には差が大きくなる。
第2の方向において,オフポリシー予測シーケンスの時間的平滑性は,一般的な平均絶対誤差である実際のオンポリシー駆動能力と等しく相関することが明らかとなった。
関連論文リスト
- Digital twins to alleviate the need for real field data in vision-based vehicle speed detection systems [0.9899633398596672]
正確な視覚に基づく速度推定は、レーダーやLiDARに基づく従来の手法よりもコスト効率が高い。
ディープラーニングのアプローチは、利用可能なデータがないため、このコンテキストでは極めて限定的です。
本研究では,CARLAシミュレータを用いたデジタルツインを用いて,特定の実世界のカメラの大規模なデータセットを生成することを提案する。
論文 参考訳(メタデータ) (2024-07-11T10:41:20Z) - LidaRF: Delving into Lidar for Neural Radiance Field on Street Scenes [73.65115834242866]
光リアリスティックシミュレーションは、自律運転のようなアプリケーションにおいて重要な役割を果たす。
しかし, コリニアカメラの動作やスペーサーのサンプリングにより, 街路景観の再現性は低下する。
街路面のNeRF品質を改善するために,Lidarデータのより優れた利用を可能にするいくつかの知見を提案する。
論文 参考訳(メタデータ) (2024-05-01T23:07:12Z) - NiteDR: Nighttime Image De-Raining with Cross-View Sensor Cooperative Learning for Dynamic Driving Scenes [49.92839157944134]
夜間の運転シーンでは、不十分で不均一な照明が暗闇の中でシーンを遮蔽し、画質と可視性が低下する。
雨天時の運転シーンに適した画像デライニング・フレームワークを開発した。
雨の人工物を取り除き、風景表現を豊かにし、有用な情報を復元することを目的としている。
論文 参考訳(メタデータ) (2024-02-28T09:02:33Z) - How to Build a Curb Dataset with LiDAR Data for Autonomous Driving [11.632427050596728]
ビデオカメラと3D LiDARは、検出を抑えるために自動運転車に搭載されている。
カメラベースストレッチ検出手法は、難解な照明条件に悩まされる。
テンプレートアノテーションや効率的なテンプレートラベリングアプローチを備えたデータセットは、要求が高い。
論文 参考訳(メタデータ) (2021-10-08T08:32:37Z) - Data-driven vehicle speed detection from synthetic driving simulator
images [0.440401067183266]
運転シミュレータから生成された合成画像を用いて車両の速度検出について検討する。
複数の速度、車両の種類や色、照明や気象条件に応じた可変性を持つ数千の画像を生成します。
CNN-GRUや3D-CNNなど,画像のシーケンスを出力速度(回帰)にマッピングする2つのアプローチについて検討した。
論文 参考訳(メタデータ) (2021-04-20T11:26:13Z) - Multi-Modal Fusion Transformer for End-to-End Autonomous Driving [59.60483620730437]
画像表現とLiDAR表現を注目で統合する,新しいマルチモードフュージョントランスフォーマであるTransFuserを提案する。
本手法は, 衝突を76%低減しつつ, 最先端駆動性能を実現する。
論文 参考訳(メタデータ) (2021-04-19T11:48:13Z) - Incorporating Orientations into End-to-end Driving Model for Steering
Control [12.163394005517766]
本稿では,自動運転のための深層ニューラルネットワークモデルを提案する。
単眼画像シーケンスを入力として取得し、直接ステアリング制御角度を生成します。
私たちのデータセットには、都市、国、オフロードなどの複数の運転シナリオが含まれます。
論文 参考訳(メタデータ) (2021-03-10T03:14:41Z) - ISETAuto: Detecting vehicles with depth and radiance information [0.0]
複雑な昼夜運転場面における車両検出におけるresnetの性能を比較する。
深度マップと放射率画像を組み合わせたハイブリッドシステムの場合、平均精度は深度や放射率のみを使用するよりも高い。
論文 参考訳(メタデータ) (2021-01-06T01:37:43Z) - Deep traffic light detection by overlaying synthetic context on
arbitrary natural images [49.592798832978296]
深部交通光検出器のための人工的な交通関連トレーニングデータを生成する手法を提案する。
このデータは、任意の画像背景の上に偽のトラフィックシーンをブレンドするために、基本的な非現実的なコンピュータグラフィックスを用いて生成される。
また、交通信号データセットの本質的なデータ不均衡問題にも対処し、主に黄色い状態のサンプルの少なさによって引き起こされる。
論文 参考訳(メタデータ) (2020-11-07T19:57:22Z) - Depth Sensing Beyond LiDAR Range [84.19507822574568]
小型の視野カメラを用いた3カメラシステムを提案する。
我々のシステムは、計量深度を計算するための新しいアルゴリズムとともに、完全な事前校正を必要としない。
遠距離のシーンや物体に対して、事実上許容できる精度で密集した深度マップを出力することができる。
論文 参考訳(メタデータ) (2020-04-07T00:09:51Z) - LIBRE: The Multiple 3D LiDAR Dataset [54.25307983677663]
We present LIBRE: LiDAR Benchmarking and Reference, a first-of-in-kind dataset with 10 different LiDAR sensor。
LIBREは、現在利用可能なLiDARを公平に比較するための手段を提供するために、研究コミュニティに貢献する。
また、既存の自動運転車やロボティクス関連のソフトウェアの改善も促進する。
論文 参考訳(メタデータ) (2020-03-13T06:17:39Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。