論文の概要: End-to-end Learning for Inter-Vehicle Distance and Relative Velocity
Estimation in ADAS with a Monocular Camera
- arxiv url: http://arxiv.org/abs/2006.04082v2
- Date: Tue, 9 Jun 2020 07:40:51 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-24 08:06:04.023980
- Title: End-to-end Learning for Inter-Vehicle Distance and Relative Velocity
Estimation in ADAS with a Monocular Camera
- Title(参考訳): 単眼カメラを用いた車間距離のエンドツーエンド学習とADASの相対速度推定
- Authors: Zhenbo Song, Jianfeng Lu, Tong Zhang, Hongdong Li
- Abstract要約: 本稿では,ディープニューラルネットワークのエンドツーエンドトレーニングに基づくカメラによる車間距離と相対速度推定手法を提案する。
提案手法の重要な特徴は,2つの時間的単眼フレームによって提供される複数の視覚的手がかりの統合である。
また,移動場における視線歪みの影響を緩和する車両中心サンプリング機構を提案する。
- 参考スコア(独自算出の注目度): 81.66569124029313
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Inter-vehicle distance and relative velocity estimations are two basic
functions for any ADAS (Advanced driver-assistance systems). In this paper, we
propose a monocular camera-based inter-vehicle distance and relative velocity
estimation method based on end-to-end training of a deep neural network. The
key novelty of our method is the integration of multiple visual clues provided
by any two time-consecutive monocular frames, which include deep feature clue,
scene geometry clue, as well as temporal optical flow clue. We also propose a
vehicle-centric sampling mechanism to alleviate the effect of perspective
distortion in the motion field (i.e. optical flow). We implement the method by
a light-weight deep neural network. Extensive experiments are conducted which
confirm the superior performance of our method over other state-of-the-art
methods, in terms of estimation accuracy, computational speed, and memory
footprint.
- Abstract(参考訳): 車両間距離と相対速度推定は、ADAS(Advanced driver-assistance system)の2つの基本機能である。
本稿では,ディープニューラルネットワークのエンドツーエンドトレーニングに基づく単眼カメラを用いた車間距離と相対速度推定法を提案する。
提案手法の重要な特徴は,深部特徴手がかり,シーン形状手がかり,時間的光フロー手がかりを含む,2つの時間的単眼フレームによって提供される複数の視覚的手がかりの統合である。
また,運動場(光流)における視点歪みの影響を軽減するための車両中心サンプリング機構を提案する。
本手法は,軽量深層ニューラルネットワークを用いて実装する。
評価精度,計算速度,メモリフットプリントの観点から,他の最先端手法よりも優れた性能を示す大規模な実験を行った。
関連論文リスト
- Event-Aided Time-to-Collision Estimation for Autonomous Driving [28.13397992839372]
ニューロモルフィックなイベントベースカメラを用いて衝突時刻を推定する新しい手法を提案する。
提案アルゴリズムは, 事象データに適合する幾何モデルに対して, 効率的かつ高精度な2段階のアプローチで構成する。
合成データと実データの両方の実験により,提案手法の有効性が示された。
論文 参考訳(メタデータ) (2024-07-10T02:37:36Z) - Monocular BEV Perception of Road Scenes via Front-to-Top View Projection [57.19891435386843]
本稿では,鳥の目視で道路配置と車両占有率によって形成された局所地図を再構築する新しい枠組みを提案する。
我々のモデルは1つのGPU上で25FPSで動作し、リアルタイムパノラマHDマップの再構築に有効である。
論文 参考訳(メタデータ) (2022-11-15T13:52:41Z) - ParticleSfM: Exploiting Dense Point Trajectories for Localizing Moving
Cameras in the Wild [57.37891682117178]
本稿では,一対の光流からの高密度対応に基づく動画の高密度間接構造抽出手法を提案する。
不規則点軌道データを処理するために,新しいニューラルネットワークアーキテクチャを提案する。
MPIシンテルデータセットを用いた実験により,我々のシステムはより正確なカメラ軌道を生成することがわかった。
論文 参考訳(メタデータ) (2022-07-19T09:19:45Z) - Multi-Stream Attention Learning for Monocular Vehicle Velocity and
Inter-Vehicle Distance Estimation [25.103483428654375]
車両速度と車間距離の推定は、ADAS(Advanced driver-assistance system)と自律走行車にとって不可欠である。
近年の研究では、低コストの単眼カメラを用いて、車周りの環境をデータ駆動方式で知覚することに焦点を当てている。
MSANetは、例えば、共同走行速度と車間距離推定のための空間的特徴と文脈的特徴の異なる特徴を抽出するために提案されている。
論文 参考訳(メタデータ) (2021-10-22T06:14:12Z) - Real Time Monocular Vehicle Velocity Estimation using Synthetic Data [78.85123603488664]
移動車に搭載されたカメラから車両の速度を推定する問題を考察する。
そこで本研究では,まずオフ・ザ・シェルフ・トラッカーを用いて車両バウンディングボックスを抽出し,その後,小型ニューラルネットワークを用いて車両速度を回帰する2段階のアプローチを提案する。
論文 参考訳(メタデータ) (2021-09-16T13:10:27Z) - ViPNAS: Efficient Video Pose Estimation via Neural Architecture Search [94.90294600817215]
高速なオンラインビデオポーズ推定のための空間的・時間的ネットワークに対する新しいニューラルネットワーク探索(NAS)手法(ViPNAS)を提案する。
空間レベルでは,ネットワーク深さ,幅,カーネルサイズ,グループ数,注目度などの5つの異なる次元の探索空間を慎重に設計する。
時間レベルでは、一連の時間的特徴融合から検索し、複数のビデオフレームの合計精度と速度を最適化する。
論文 参考訳(メタデータ) (2021-05-21T06:36:40Z) - DeepAVO: Efficient Pose Refining with Feature Distilling for Deep Visual
Odometry [8.114855695727003]
本稿では, 深層学習(DL)の観点から, モノクラービジュアルオドメトリー(VO)について検討する。
本稿では、コナールニューラルネットワーク(CNN)を利用して、光フロー入力の異なる四分項に着目し、回転と変換を学習する新しい4分岐ネットワークを提案する。
屋外走行と屋内歩行のシナリオを含む様々なデータセットの実験により、提案されたDeepAVOは最先端のモノラル法よりも大きなマージンで優れていることが示された。
論文 参考訳(メタデータ) (2021-05-20T17:05:31Z) - FAITH: Fast iterative half-plane focus of expansion estimation using
event-based optic flow [3.326320568999945]
本研究では, 小型航空機(MAV)の走行経路を決定するためのFAst ITerative Half-plane (FAITH)法を提案する。
その結果,提案手法の計算効率は高い精度を維持しながら最先端の手法よりも優れていた。
論文 参考訳(メタデータ) (2021-02-25T12:49:02Z) - Multi-view Depth Estimation using Epipolar Spatio-Temporal Networks [87.50632573601283]
一つのビデオから多視点深度を推定する新しい手法を提案する。
提案手法は,新しいEpipolar Spatio-Temporal Transformer(EST)を用いて時間的コヒーレントな深度推定を行う。
最近のMixture-of-Expertsモデルにインスパイアされた計算コストを削減するため、我々はコンパクトなハイブリッドネットワークを設計する。
論文 参考訳(メタデータ) (2020-11-26T04:04:21Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。