論文の概要: ISETAuto: Detecting vehicles with depth and radiance information
- arxiv url: http://arxiv.org/abs/2101.01843v2
- Date: Thu, 7 Jan 2021 02:25:02 GMT
- ステータス: 処理完了
- システム内更新日: 2021-04-11 08:37:32.182806
- Title: ISETAuto: Detecting vehicles with depth and radiance information
- Title(参考訳): ISETAuto:深度・放射量情報による車両検出
- Authors: Zhenyi Liu, Joyce Farrell, Brian Wandell
- Abstract要約: 複雑な昼夜運転場面における車両検出におけるresnetの性能を比較する。
深度マップと放射率画像を組み合わせたハイブリッドシステムの場合、平均精度は深度や放射率のみを使用するよりも高い。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Autonomous driving applications use two types of sensor systems to identify
vehicles - depth sensing LiDAR and radiance sensing cameras. We compare the
performance (average precision) of a ResNet for vehicle detection in complex,
daytime, driving scenes when the input is a depth map (D = d(x,y)), a radiance
image (L = r(x,y)), or both [D,L]. (1) When the spatial sampling resolution of
the depth map and radiance image are equal to typical camera resolutions, a
ResNet detects vehicles at higher average precision from depth than radiance.
(2) As the spatial sampling of the depth map declines to the range of current
LiDAR devices, the ResNet average precision is higher for radiance than depth.
(3) For a hybrid system that combines a depth map and radiance image, the
average precision is higher than using depth or radiance alone. We established
these observations in simulation and then confirmed them using realworld data.
The advantage of combining depth and radiance can be explained by noting that
the two type of information have complementary weaknesses. The radiance data
are limited by dynamic range and motion blur. The LiDAR data have relatively
low spatial resolution. The ResNet combines the two data sources effectively to
improve overall vehicle detection.
- Abstract(参考訳): 自律運転アプリケーションは、深度センサーのLiDARと放射センサーカメラの2種類のセンサーシステムを使用して車両を識別する。
本研究では、複雑な日中における車両検出のためのResNetの性能(平均精度)を比較し、入力が深度マップ(D = d(x,y))、放射画像(L = r(x,y))、または両方[D,L]である場合のシーンを駆動する。
1)深度マップと放射率画像の空間サンプリング解像度が典型的なカメラ解像度と等しい場合、resnetは、放射率よりも深さから平均精度の高い車両を検出する。
2) 深度マップの空間的サンプリングが現在のlidarデバイスの範囲に減少するにつれて, 放射輝度に対するresnet平均精度は深さよりも高くなる。
(3) 深度マップと放射率画像を組み合わせたハイブリッドシステムの場合, 平均精度は深度や放射率のみを用いた場合よりも高い。
これらの観測をシミュレーションで確立し,実世界データを用いて確認した。
深度と放射率を組み合わせる利点は、2種類の情報に相補的な弱点があることに注意して説明できる。
放射データは、ダイナミックレンジと動きのぼかしによって制限される。
LiDARデータは空間分解能が比較的低い。
ResNetは2つのデータソースを効果的に組み合わせ、全体の車両検出を改善する。
関連論文リスト
- Redefining Automotive Radar Imaging: A Domain-Informed 1D Deep Learning Approach for High-Resolution and Efficient Performance [6.784861785632841]
本研究では,1次元(1次元)信号の超解像スペクトル推定問題として,レーダー画像の超解像を再定義する。
自動車レーダイメージングのための最適化されたディープラーニングネットワークは、優れたスケーラビリティ、パラメータ効率、高速推論速度を示す。
我々のSR-SPECNetは、高解像度のレーダレンジ方位画像を作成するための新しいベンチマークを設定している。
論文 参考訳(メタデータ) (2024-06-11T16:07:08Z) - Robust Depth Enhancement via Polarization Prompt Fusion Tuning [112.88371907047396]
様々な深度センサによる不正確な深度測定を改善するために偏光イメージングを利用するフレームワークを提案する。
まず、偏光データとセンサ深度マップから高密度で完全な深度マップを推定するために、ニューラルネットワークを訓練した学習ベースの戦略を採用する。
大規模データセット上で事前学習したRGBモデルを有効に活用するためのPPFT(Polarization Prompt Fusion Tuning)戦略を提案する。
論文 参考訳(メタデータ) (2024-04-05T17:55:33Z) - Neural Rendering based Urban Scene Reconstruction for Autonomous Driving [8.007494499012624]
ニューラルな暗黙表面と放射場を組み合わせたフレームワークを用いたマルチモーダル3次元シーン再構成を提案する。
Dense 3Dリコンストラクションは、自動アノテーションバリデーションを含む自動走行に多くの応用がある。
我々は,挑戦的な自動車シーンの質的,定量的な結果を示す。
論文 参考訳(メタデータ) (2024-02-09T23:20:23Z) - R-C-P Method: An Autonomous Volume Calculation Method Using Image
Processing and Machine Vision [0.0]
2台のカメラを用いて、矩形物体の寸法をリアルタイムで測定した。
画像処理とエッジ検出を用いてR-C-P法を開発した。
表面積に加えて、R-C-P法は不連続エッジや体積も検出する。
論文 参考訳(メタデータ) (2023-08-19T15:39:27Z) - LiDAR-as-Camera for End-to-End Driving [1.0323063834827415]
Ouster LiDARは、深度、強度、周囲の放射線チャンネルを備えたサラウンドビューのLiDARイメージを出力することができる。
これらの測定は、同じセンサーから始まり、時間と空間で完全に整列する。
このようなLiDAR画像は、実車走行追従作業に十分であり、テスト条件下では少なくともカメラベースモデルに対して等しく動作することを示す。
研究の第2の方向において、非政治予測シーケンスの時間的スムーズさは、一般的に使用される平均絶対誤差と実際のオンライン運転能力と等しく相関することが明らかとなった。
論文 参考訳(メタデータ) (2022-06-30T10:06:49Z) - Joint Learning of Salient Object Detection, Depth Estimation and Contour
Extraction [91.43066633305662]
RGB-D Salient Object Detection (SOD) のための新しいマルチタスク・マルチモーダルフィルタトランス (MMFT) ネットワークを提案する。
具体的には、深度推定、健全な物体検出、輪郭推定の3つの相補的なタスクを統合する。マルチタスク機構は、タスク認識の特徴を補助タスクから学習するためのモデルを促進する。
実験の結果、複数のデータセット上での深度に基づくRGB-D SOD法をはるかに上回るだけでなく、高品質の深度マップと塩分濃度を同時に正確に予測できることがわかった。
論文 参考訳(メタデータ) (2022-03-09T17:20:18Z) - Towards Fast and Accurate Real-World Depth Super-Resolution: Benchmark
Dataset and Baseline [48.69396457721544]
深度写像スーパーリゾリューション(SR)の研究を促進するために,RGB-D-Dという大規模データセットを構築した。
本稿では、RGB画像から高周波成分を適応的に分解して深度マップSRを導出する高速深度マップ超解像(FDSR)ベースラインを提供する。
実世界のLR深度マップでは、より明確な境界を持つより正確なHR深度マップを作成でき、ある程度の精度で深度値誤差を補正できる。
論文 参考訳(メタデータ) (2021-04-13T13:27:26Z) - Sparse LiDAR and Stereo Fusion (SLS-Fusion) for Depth Estimationand 3D
Object Detection [3.5488685789514736]
SLS-Fusionは、深度推定のためにニューラルネットワークを介して4ビームLiDARとステレオカメラからデータを融合する新しいアプローチです。
4ビームのLiDARは64ビームのLiDARよりも安価であるため、この手法は低コストのセンサベース手法に分類される。
論文 参考訳(メタデータ) (2021-03-05T23:10:09Z) - PLUME: Efficient 3D Object Detection from Stereo Images [95.31278688164646]
既存の手法では、2つのステップでこの問題に対処する: 第一深度推定を行い、その深さ推定から擬似LiDAR点雲表現を計算し、3次元空間で物体検出を行う。
この2つのタスクを同一のメトリック空間で統一するモデルを提案する。
提案手法は,既存の手法と比較して推定時間を大幅に削減し,挑戦的なKITTIベンチマークの最先端性能を実現する。
論文 参考訳(メタデータ) (2021-01-17T05:11:38Z) - RadarNet: Exploiting Radar for Robust Perception of Dynamic Objects [73.80316195652493]
我々は、自動運転車の文脈における認識のためにRadarを利用する問題に取り組む。
我々は、LiDARとRadarの両方のセンサーを知覚に利用した新しいソリューションを提案する。
RadarNetと呼ばれる我々のアプローチは、ボクセルベースの早期核融合と注意に基づく後期核融合を特徴としている。
論文 参考訳(メタデータ) (2020-07-28T17:15:02Z) - Drone-based RGB-Infrared Cross-Modality Vehicle Detection via
Uncertainty-Aware Learning [59.19469551774703]
ドローンによる車両検出は、空中画像中の車両の位置とカテゴリーを見つけることを目的としている。
我々はDroneVehicleと呼ばれる大規模ドローンベースのRGB赤外線車両検出データセットを構築した。
私たちのDroneVehicleは28,439RGBの赤外線画像を収集し、都市道路、住宅地、駐車場、その他のシナリオを昼から夜までカバーしています。
論文 参考訳(メタデータ) (2020-03-05T05:29:44Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。