論文の概要: End-to-End Monocular Vanishing Point Detection Exploiting Lane
Annotations
- arxiv url: http://arxiv.org/abs/2108.13699v1
- Date: Tue, 31 Aug 2021 09:23:33 GMT
- ステータス: 処理完了
- システム内更新日: 2021-09-01 14:29:53.534696
- Title: End-to-End Monocular Vanishing Point Detection Exploiting Lane
Annotations
- Title(参考訳): 終端から終端までの単眼点検出
- Authors: Hiroto Honda, Motoki Kimura, Takumi Karasawa, Yusuke Uchida
- Abstract要約: バニシングポイント(VP)は、様々なコンピュータビジョンタスクにおいて重要な役割を果たす。
カメラが車に装着されている場合、外部カメラパラメーターを手動で取得することはコストがかかる。
本稿では,シンプルだが効果的な終端点検出手法を提案する。
- 参考スコア(独自算出の注目度): 3.999231396751658
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Vanishing points (VPs) play a vital role in various computer vision tasks,
especially for recognizing the 3D scenes from an image. In the real-world
scenario of automobile applications, it is costly to manually obtain the
external camera parameters when the camera is attached to the vehicle or the
attachment is accidentally perturbed. In this paper we introduce a simple but
effective end-to-end vanishing point detection. By automatically calculating
intersection of the extrapolated lane marker annotations, we obtain
geometrically consistent VP labels and mitigate human annotation errors caused
by manual VP labeling. With the calculated VP labels we train end-to-end VP
Detector via heatmap estimation. The VP Detector realizes higher accuracy than
the methods utilizing manual annotation or lane detection, paving the way for
accurate online camera calibration.
- Abstract(参考訳): バニシングポイント(VP)は、様々なコンピュータビジョンタスクにおいて、特に画像から3Dシーンを認識するために重要な役割を果たす。
自動車応用の現実的なシナリオでは、カメラが取り付けられたり、アタッチメントが誤って摂動した場合、外部カメラパラメータを手動で取得するコストがかかる。
本稿では,シンプルだが効果的な終端点検出手法を提案する。
外挿されたレーンマーカーアノテーションの交叉を自動的に計算することにより、幾何学的に一貫したVPラベルを取得し、手動のVPラベルによる人間のアノテーションエラーを軽減する。
計算済みのVPラベルを使って、ヒートマップ推定によってエンドツーエンドのVP検出器をトレーニングします。
VP Detectorは、手動アノテーションや車線検出を利用する方法よりも高い精度を実現し、正確なオンラインカメラキャリブレーションを実現する。
関連論文リスト
- An Efficient Transformer for Simultaneous Learning of BEV and Lane
Representations in 3D Lane Detection [55.281369497158515]
3次元車線検出のための効率的な変圧器を提案する。
バニラ変圧器と異なり、我々のモデルは車線とBEVの表現を同時に学習するクロスアテンション機構を含んでいる。
本手法は,2次元および3次元の車線特徴を画像ビューとBEVの特徴にそれぞれ適用することにより,2次元および3次元車線予測を実現する。
論文 参考訳(メタデータ) (2023-06-08T04:18:31Z) - Extrinsic Camera Calibration with Semantic Segmentation [60.330549990863624]
本稿では,セグメンテーション情報を利用してパラメータ推定を自動化する,外部カメラキャリブレーション手法を提案する。
われわれのアプローチは、カメラのポーズの粗い初期測定と、車両に搭載されたライダーセンサーによる構築に依存している。
シミュレーションおよび実世界のデータを用いて,キャリブレーション結果の低誤差測定を行う。
論文 参考訳(メタデータ) (2022-08-08T07:25:03Z) - Image-to-Lidar Self-Supervised Distillation for Autonomous Driving Data [80.14669385741202]
本稿では,自律運転データに適した3次元知覚モデルのための自己教師付き事前学習手法を提案する。
我々は、自動走行装置における同期・校正画像とLidarセンサーの可用性を活用している。
私たちのメソッドは、ポイントクラウドや画像アノテーションを一切必要としません。
論文 参考訳(メタデータ) (2022-03-30T12:40:30Z) - A Quality Index Metric and Method for Online Self-Assessment of
Autonomous Vehicles Sensory Perception [164.93739293097605]
本稿では,検出品質指標(DQI)と呼ばれる新しい評価指標を提案し,カメラを用いた物体検出アルゴリズムの性能を評価する。
我々は,提案したDQI評価指標を予測するために,原画像画素とスーパーピクセルを入力として利用するスーパーピクセルベースのアテンションネットワーク(SPA-NET)を開発した。
論文 参考訳(メタデータ) (2022-03-04T22:16:50Z) - Semantic Image Alignment for Vehicle Localization [111.59616433224662]
単眼カメラからのセマンティックセグメンテーションを用いた高密度セマンティックマップにおける車両位置推定手法を提案する。
既存の視覚的ローカライゼーションアプローチとは対照的に、システムは追加のキーポイント機能、手作りのローカライゼーションランドマーク抽出器、高価なLiDARセンサーを必要としない。
論文 参考訳(メタデータ) (2021-10-08T14:40:15Z) - Monocular 3D Vehicle Detection Using Uncalibrated Traffic Cameras
through Homography [12.062095895630563]
本稿では,1台の交通カメラから3次元世界における車両の位置とポーズを抽出する手法を提案する。
道路平面と画像平面の相同性が3D車両の検出に不可欠であることを観察する。
本稿では,BEV画像の歪み検出精度を高めるためのtextittailedr-box と textitdual-view Network アーキテクチャを提案する。
論文 参考訳(メタデータ) (2021-03-29T02:57:37Z) - Traffic Camera Calibration via Vehicle Vanishing Point Detection [0.0]
本稿では,消失点の位置を表すヒートマップを出力するCNNを提案する。
我々は、カメラの焦点距離と道路面の向きを推定することにより、シーン形状を確立する。
論文 参考訳(メタデータ) (2021-03-21T17:11:59Z) - End-to-End Lane Marker Detection via Row-wise Classification [13.82948181492772]
自律運転では、信頼性が高く正確な車線マーカーの位置を検出することが重要な課題である。
レーンマーカー検出問題に対する従来のアプローチは、ピクセルレベルの高密度予測タスクを実行し、その後に洗練された後処理を行う。
後処理のステップを使わずに,エンドツーエンドで直接車線マーカー予測を行う手法を提案する。
論文 参考訳(メタデータ) (2020-05-06T12:48:46Z) - Vehicle-Human Interactive Behaviors in Emergency: Data Extraction from
Traffic Accident Videos [0.0]
現在、緊急時の車両と人間の対話行動を研究するには、ほとんど利用できない実際の緊急状況において、大量のデータセットが必要である。
本稿では,実際の事故映像から対話行動データ(車と人間の軌跡)を抽出する,しかし便利な方法を提案する。
リアルタイムの事故ビデオからデータを抽出する主な課題は、記録カメラが校正されておらず、監視の角度が不明であるという事実にある。
論文 参考訳(メタデータ) (2020-03-02T22:17:46Z) - Road Curb Detection and Localization with Monocular Forward-view Vehicle
Camera [74.45649274085447]
魚眼レンズを装着した校正単眼カメラを用いて3Dパラメータを推定するロバストな手法を提案する。
我々のアプローチでは、車両が90%以上の精度で、リアルタイムで距離を抑えることができる。
論文 参考訳(メタデータ) (2020-02-28T00:24:18Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。