論文の概要: A 2.5D Vehicle Odometry Estimation for Vision Applications
- arxiv url: http://arxiv.org/abs/2105.02679v1
- Date: Thu, 6 May 2021 14:01:46 GMT
- ステータス: 処理完了
- システム内更新日: 2021-05-07 17:41:01.912750
- Title: A 2.5D Vehicle Odometry Estimation for Vision Applications
- Title(参考訳): 2.5次元車両オドメトリーによる視覚計測
- Authors: Paul Moran, Leroy-Francisco Periera, Anbuchezhiyan Selvaraju, Tejash
Prakash, Pantelis Ermilios, John McDonald, Jonathan Horgan, Ciar\'an Eising
- Abstract要約: 本稿では,車輪センサに基づく平面オドメトリとリニアサスペンションセンサに基づくサスペンションモデルを組み合わせた一連のステップについて述べる。
目的は、カメラポーズのより正確な推定を決定することです。
- 参考スコア(独自算出の注目度): 0.2069421313572092
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: This paper proposes a method to estimate the pose of a sensor mounted on a
vehicle as the vehicle moves through the world, an important topic for
autonomous driving systems. Based on a set of commonly deployed vehicular
odometric sensors, with outputs available on automotive communication buses
(e.g. CAN or FlexRay), we describe a set of steps to combine a planar odometry
based on wheel sensors with a suspension model based on linear suspension
sensors. The aim is to determine a more accurate estimate of the camera pose.
We outline its usage for applications in both visualisation and computer
vision.
- Abstract(参考訳): 本稿では、車両が世界中を移動する際に、車両に搭載されたセンサの姿勢を推定する方法を提案する。
一般的な車両用オドメトリーセンサーのセットに基づいており、出力は自動車の通信バス(例えば)で利用可能である。
canまたはflexray) 車輪センサに基づく平面オドメトリとリニアサスペンションセンサに基づくサスペンションモデルを組み合わせた一連のステップについて述べる。
目標は、カメラのポーズをより正確に推定することである。
可視化とコンピュータビジョンの両方への応用について概説する。
関連論文リスト
- Can you see me now? Blind spot estimation for autonomous vehicles using
scenario-based simulation with random reference sensors [5.910402196056647]
モンテカルロをベースとした参照センサシミュレーションにより,被写体サイズを被写体量として正確に推定することができる。
目的シナリオの高忠実度シミュレーションからLiDARセンサやカメラ深度画像からの点雲を利用して,正確な可視性推定を行う。
論文 参考訳(メタデータ) (2024-02-01T10:14:53Z) - Applications of Computer Vision in Autonomous Vehicles: Methods, Challenges and Future Directions [2.693342141713236]
本稿では,過去10年間に出版されたコンピュータビジョンと自動運転に関する論文をレビューする。
特に、まず自律運転システムの開発について検討し、各国の主要自動車メーカーによって開発されたこれらのシステムを要約する。
そこで, 深度推定, 物体検出, 車線検出, 信号認識など, 自律運転におけるコンピュータビジョン応用の概要を概観する。
論文 参考訳(メタデータ) (2023-11-15T16:41:18Z) - Camera-Radar Perception for Autonomous Vehicles and ADAS: Concepts,
Datasets and Metrics [77.34726150561087]
本研究の目的は、ADASおよび自動運転車のカメラおよびレーダーによる認識の現在のシナリオに関する研究を行うことである。
両センサと融合に関する概念と特徴を提示する。
本稿では、ディープラーニングに基づく検出とセグメンテーションタスクの概要と、車両の認識における主要なデータセット、メトリクス、課題、オープンな質問について説明する。
論文 参考訳(メタデータ) (2023-03-08T00:48:32Z) - HUM3DIL: Semi-supervised Multi-modal 3D Human Pose Estimation for
Autonomous Driving [95.42203932627102]
3Dの人間のポーズ推定は、自動運転車が歩行者の微妙で複雑な振る舞いを知覚し理解できるようにする新しい技術である。
提案手法は,これらの補完信号を半教師付き方式で効率的に利用し,既存の手法よりも大きなマージンで性能を向上する。
具体的には、LiDAR点を画素整列マルチモーダル特徴に埋め込み、トランスフォーマーの精細化段階を経る。
論文 参考訳(メタデータ) (2022-12-15T11:15:14Z) - Extrinsic Camera Calibration with Semantic Segmentation [60.330549990863624]
本稿では,セグメンテーション情報を利用してパラメータ推定を自動化する,外部カメラキャリブレーション手法を提案する。
われわれのアプローチは、カメラのポーズの粗い初期測定と、車両に搭載されたライダーセンサーによる構築に依存している。
シミュレーションおよび実世界のデータを用いて,キャリブレーション結果の低誤差測定を行う。
論文 参考訳(メタデータ) (2022-08-08T07:25:03Z) - Rope3D: TheRoadside Perception Dataset for Autonomous Driving and
Monocular 3D Object Detection Task [48.555440807415664]
道路沿いの知覚3Dデータセットに挑戦する最初のハイダイバーシティを提示する。
データセットは50Kイメージと、さまざまなシーンで1.5M以上の3Dオブジェクトで構成されている。
本稿では,様々なセンサや視点によって引き起こされるあいまいさを解決するために,幾何学的制約を活用することを提案する。
論文 参考訳(メタデータ) (2022-03-25T12:13:23Z) - 2.5D Vehicle Odometry Estimation [0.2302750678082437]
ADASの応用においては、車両の姿勢を適切に見積もる必要があることはよく理解されている。
本稿では, ヤウ速度センサから得られる平面形状を, 線形サスペンションモデルにより拡張した2.5Dオードメトリーを提案する。
DGPS/IMUによる実験結果から,本モデルが既存の手法と比較して高精度なオドメトリ推定を行うことを示す。
論文 参考訳(メタデータ) (2021-11-16T11:54:34Z) - Single View Physical Distance Estimation using Human Pose [18.9877515094788]
本稿では,1枚のRGB画像やビデオからカメラ内在物,地上面,人物間の物理的距離を同時に推定する完全自動システムを提案する。
提案手法により、既存のカメラシステムは、専用のキャリブレーションプロセスやレンジセンサーを必要とせず、物理的距離を測定することができる。
その結果,ポーズに基づく自動校正と距離推定の問題に対して,MEVADAが世界初となる評価ベンチマークとなった。
論文 参考訳(メタデータ) (2021-06-18T19:50:40Z) - Self-Supervised Steering Angle Prediction for Vehicle Control Using
Visual Odometry [55.11913183006984]
視覚オドメトリー法を用いて推定したカメラポーズを用いて,車両の軌道制御をモデルに訓練する方法を示す。
車両の前方にカメラを設置することにより,複数の異なる走行経路からの軌跡情報を活用するスケーラブルなフレームワークを提案する。
論文 参考訳(メタデータ) (2021-03-20T16:29:01Z) - Ego-motion and Surrounding Vehicle State Estimation Using a Monocular
Camera [11.29865843123467]
単眼カメラを用いて,エゴモーションと周囲の車両状態を推定する新しい機械学習手法を提案する。
提案手法は3つのディープニューラルネットワークを組み合わせて,画像列から3次元車両境界ボックス,深度,光学的流れを推定する。
論文 参考訳(メタデータ) (2020-05-04T16:41:38Z) - Road Curb Detection and Localization with Monocular Forward-view Vehicle
Camera [74.45649274085447]
魚眼レンズを装着した校正単眼カメラを用いて3Dパラメータを推定するロバストな手法を提案する。
我々のアプローチでは、車両が90%以上の精度で、リアルタイムで距離を抑えることができる。
論文 参考訳(メタデータ) (2020-02-28T00:24:18Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。