論文の概要: Disentangling and Vectorization: A 3D Visual Perception Approach for
Autonomous Driving Based on Surround-View Fisheye Cameras
- arxiv url: http://arxiv.org/abs/2107.08862v1
- Date: Mon, 19 Jul 2021 13:24:21 GMT
- ステータス: 処理完了
- システム内更新日: 2021-07-20 14:55:11.920753
- Title: Disentangling and Vectorization: A 3D Visual Perception Approach for
Autonomous Driving Based on Surround-View Fisheye Cameras
- Title(参考訳): 遠近法とベクトル化:魚眼カメラを用いた自律走行のための3次元視覚認識アプローチ
- Authors: Zizhang Wu, Wenkai Zhang, Jizheng Wang, Man Wang, Yuanzhu Gan, Xinchao
Gou, Muqing Fang, Jing Song
- Abstract要約: 多次元ベクトルは、異なる次元と段階で生成される有効情報を含むことが提案されている。
実魚眼画像実験により,本手法は実時間で最先端の精度を達成できることが実証された。
- 参考スコア(独自算出の注目度): 3.485767750936058
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The 3D visual perception for vehicles with the surround-view fisheye camera
system is a critical and challenging task for low-cost urban autonomous
driving. While existing monocular 3D object detection methods perform not well
enough on the fisheye images for mass production, partly due to the lack of 3D
datasets of such images. In this paper, we manage to overcome and avoid the
difficulty of acquiring the large scale of accurate 3D labeled truth data, by
breaking down the 3D object detection task into some sub-tasks, such as
vehicle's contact point detection, type classification, re-identification and
unit assembling, etc. Particularly, we propose the concept of Multidimensional
Vector to include the utilizable information generated in different dimensions
and stages, instead of the descriptive approach for the bird's eye view (BEV)
or a cube of eight points. The experiments of real fisheye images demonstrate
that our solution achieves state-of-the-art accuracy while being real-time in
practice.
- Abstract(参考訳): サラウンドビュー・フィッシュアイ・カメラ・システムを搭載した車両の3d視覚認識は、低コストな都市自動運転にとって重要かつ挑戦的な課題である。
既存のモノクロ3dオブジェクト検出手法は、大量生産のための魚眼画像では十分に機能しないが、一部は3dデータセットの欠如によるものである。
本稿では,車両の接触点検出,タイプ分類,再同定,ユニット組立などのサブタスクに3dオブジェクト検出タスクを分割することにより,高精度な3dラベル付き真理データを取得することの難しさを克服し,回避する。
特に,鳥眼ビュー (BEV) や8点立方体に対する記述的アプローチの代わりに,多次元ベクトルの概念を用いて,異なる次元や段階で生成される実用的情報を含むことを提案する。
実魚眼画像実験により,本手法は実時間で最先端の精度を達成できることを示した。
関連論文リスト
- Weakly Supervised Monocular 3D Detection with a Single-View Image [58.57978772009438]
モノクロ3D検出は、単一視点画像からの正確な3Dオブジェクトのローカライゼーションを目的としている。
SKD-WM3Dは弱い教師付き単分子3D検出フレームワークである。
我々は,SKD-WM3Dが最先端技術を超え,多くの完全教師付き手法と同等であることを示した。
論文 参考訳(メタデータ) (2024-02-29T13:26:47Z) - MagicDrive: Street View Generation with Diverse 3D Geometry Control [82.69871576797166]
多様な3D幾何学制御を提供する新しいストリートビュー生成フレームワークであるMagicDriveを紹介した。
私たちの設計では、複数のカメラビュー間の一貫性を確保するために、クロスビューアテンションモジュールが組み込まれています。
論文 参考訳(メタデータ) (2023-10-04T06:14:06Z) - NeurOCS: Neural NOCS Supervision for Monocular 3D Object Localization [80.3424839706698]
入力として3Dボックスをインスタンスマスクとして使用するNeurOCSを提案する。
われわれのアプローチは、実際の運転シーンから直接カテゴリレベルの形状を学習する際の洞察に依存している。
我々は、オブジェクト中心の視点からオブジェクト座標をより効果的に学習するための重要な設計選択を行う。
論文 参考訳(メタデータ) (2023-05-28T16:18:41Z) - 3D Data Augmentation for Driving Scenes on Camera [50.41413053812315]
本稿では,Drive-3DAugと呼ばれる3次元データ拡張手法を提案する。
まずNeural Radiance Field(NeRF)を用いて,背景および前景の3次元モデルの再構成を行う。
そして、予め定義された背景の有効領域に適応した位置と向きの3Dオブジェクトを配置することにより、拡張駆動シーンを得ることができる。
論文 参考訳(メタデータ) (2023-03-18T05:51:05Z) - Surround-View Vision-based 3D Detection for Autonomous Driving: A Survey [0.6091702876917281]
本稿では,自律運転に着目した既存のビジョンベース3D検出手法に関する文献調査を行う。
文献や業界の動向が,サラウンドビューのイメージベース手法にどのように移行したかを強調し,この手法がどのような場合に対処するかについて考察した。
論文 参考訳(メタデータ) (2023-02-13T19:30:17Z) - Learning Ego 3D Representation as Ray Tracing [42.400505280851114]
我々は、制約のないカメラビューからエゴ3D表現学習のための新しいエンドツーエンドアーキテクチャを提案する。
レイトレーシングの原理にインスパイアされた我々は、学習可能なエゴ3D表現として「虚視」の偏極格子を設計する。
我々のモデルはすべての最先端の代替品を著しく上回ります。
論文 参考訳(メタデータ) (2022-06-08T17:55:50Z) - Image-to-Lidar Self-Supervised Distillation for Autonomous Driving Data [80.14669385741202]
本稿では,自律運転データに適した3次元知覚モデルのための自己教師付き事前学習手法を提案する。
我々は、自動走行装置における同期・校正画像とLidarセンサーの可用性を活用している。
私たちのメソッドは、ポイントクラウドや画像アノテーションを一切必要としません。
論文 参考訳(メタデータ) (2022-03-30T12:40:30Z) - Monocular 3D Vehicle Detection Using Uncalibrated Traffic Cameras
through Homography [12.062095895630563]
本稿では,1台の交通カメラから3次元世界における車両の位置とポーズを抽出する手法を提案する。
道路平面と画像平面の相同性が3D車両の検出に不可欠であることを観察する。
本稿では,BEV画像の歪み検出精度を高めるためのtextittailedr-box と textitdual-view Network アーキテクチャを提案する。
論文 参考訳(メタデータ) (2021-03-29T02:57:37Z) - Monocular Differentiable Rendering for Self-Supervised 3D Object
Detection [21.825158925459732]
単分子画像からの3次元物体検出は、深さとスケールの射影的絡み合いにより不適切な問題である。
テクスチャ化された3次元形状の再構成と剛体物体のポーズ推定のための新しい自己教師手法を提案する。
本手法は,画像中の物体の3次元位置とメッシュを,異なるレンダリングと自己教師対象を用いて予測する。
論文 参考訳(メタデータ) (2020-09-30T09:21:43Z) - Kinematic 3D Object Detection in Monocular Video [123.7119180923524]
運動運動を注意深く利用して3次元位置決めの精度を向上させるモノクロ映像を用いた3次元物体検出法を提案する。
我々は、KITTI自動運転データセット内のモノクロ3次元物体検出とバードアイビュータスクの最先端性能を達成する。
論文 参考訳(メタデータ) (2020-07-19T01:15:12Z) - 3D Object Detection from a Single Fisheye Image Without a Single Fisheye
Training Image [7.86363825307044]
魚眼カメラから画像中の3次元物体を検出するために,リチリニア画像のみを用いて訓練された既存のモノクロ3次元物体検出モデルを使用する方法を示す。
合成データのベンチマークにより,パノラマにおけるモノクロ3次元物体検出法は,既存の手法よりも優れていた。
論文 参考訳(メタデータ) (2020-03-08T11:03:05Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。