論文の概要: Surround-View Vision-based 3D Detection for Autonomous Driving: A Survey
- arxiv url: http://arxiv.org/abs/2302.06650v1
- Date: Mon, 13 Feb 2023 19:30:17 GMT
- ステータス: 処理完了
- システム内更新日: 2023-02-15 17:24:22.280356
- Title: Surround-View Vision-based 3D Detection for Autonomous Driving: A Survey
- Title(参考訳): 視界に基づく自律運転用3次元3次元検出:サーベイ
- Authors: Apoorv Singh and Varun Bankiti
- Abstract要約: 本稿では,自律運転に着目した既存のビジョンベース3D検出手法に関する文献調査を行う。
文献や業界の動向が,サラウンドビューのイメージベース手法にどのように移行したかを強調し,この手法がどのような場合に対処するかについて考察した。
- 参考スコア(独自算出の注目度): 0.6091702876917281
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Vision-based 3D Detection task is fundamental task for the perception of an
autonomous driving system, which has peaked interest amongst many researchers
and autonomous driving engineers. However achieving a rather good 3D BEV
(Bird's Eye View) performance is not an easy task using 2D sensor input-data
with cameras. In this paper we provide a literature survey for the existing
Vision Based 3D detection methods, focused on autonomous driving. We have made
detailed analysis of over $60$ papers leveraging Vision BEV detections
approaches and highlighted different sub-groups for detailed understanding of
common trends. Moreover, we have highlighted how the literature and industry
trend have moved towards surround-view image based methods and note down
thoughts on what special cases this method addresses. In conclusion, we provoke
thoughts of 3D Vision techniques for future research based on shortcomings of
the current techniques including the direction of collaborative perception.
- Abstract(参考訳): 視覚に基づく3D検出タスクは、多くの研究者や自動運転エンジニアの間で注目を集めている自動運転システムの認識のための基本的なタスクである。
しかし、かなり良い3d bev(bird's eye view)性能を達成することは、カメラで2dセンサーの入力データを使う簡単な作業ではない。
本稿では,自律運転に着目した既存のビジョンベース3D検出手法に関する文献調査を行う。
我々は、Vision BEV検出アプローチを利用した60ドル以上の論文の詳細な分析を行い、共通トレンドの詳細な理解のために異なるサブグループを強調した。
また,文献や産業の傾向がサラウンドビュー画像ベース手法にどのように移行したかに注目し,この手法が対応している特殊な事例について考察する。
結論として, 協調知覚の方向を含む現在の手法の欠点に基づいて, 将来の研究に向けた3Dビジョン技術の考えを提起する。
関連論文リスト
- A Comprehensive Review of 3D Object Detection in Autonomous Driving: Technological Advances and Future Directions [11.071271817366739]
3次元物体認識は、自律運転システムの開発において重要な要素となっている。
本稿では,カメラベース,LiDARベース,核融合検出技術を中心に,従来の3次元物体検出手法を概説する。
本稿では、時間知覚、占有グリッド、エンドツーエンド学習フレームワークなどの精度向上手法を含む今後の方向性について論じる。
論文 参考訳(メタデータ) (2024-08-28T01:08:33Z) - A Survey on Occupancy Perception for Autonomous Driving: The Information Fusion Perspective [20.798308029074786]
3D占有感技術は、自動運転車の密集した3D環境を観察し理解することを目的としている。
従来の鳥眼視(BEV)と同様に、3D占有感は多ソース入力の性質と情報融合の必要性を持っている。
論文 参考訳(メタデータ) (2024-05-08T16:10:46Z) - Vision-based 3D occupancy prediction in autonomous driving: a review and outlook [19.939380586314673]
本稿では,視覚に基づく3次元占有予測の背景を紹介し,その課題について論じる。
我々は3つの側面から視覚に基づく3D占有率予測の進捗状況を総合的に調査する。
代表的な研究動向を概説し,今後の展望を提案する。
論文 参考訳(メタデータ) (2024-05-04T07:39:25Z) - 3D Object Detection for Autonomous Driving: A Comprehensive Survey [48.30753402458884]
自動運転車の近くで重要な3Dオブジェクトの位置、サイズ、カテゴリをインテリジェントに予測する3Dオブジェクト検出は、認識システムの重要な部分である。
本稿では,自律運転における3次元物体検出技術の進歩を概観する。
論文 参考訳(メタデータ) (2022-06-19T19:43:11Z) - Rope3D: TheRoadside Perception Dataset for Autonomous Driving and
Monocular 3D Object Detection Task [48.555440807415664]
道路沿いの知覚3Dデータセットに挑戦する最初のハイダイバーシティを提示する。
データセットは50Kイメージと、さまざまなシーンで1.5M以上の3Dオブジェクトで構成されている。
本稿では,様々なセンサや視点によって引き起こされるあいまいさを解決するために,幾何学的制約を活用することを提案する。
論文 参考訳(メタデータ) (2022-03-25T12:13:23Z) - 3D Object Detection from Images for Autonomous Driving: A Survey [68.33502122185813]
画像から3Dオブジェクトを検出することは、自動運転の基本的かつ困難な問題の一つだ。
この問題を2015年から2021年にかけて200以上の研究が行われ、理論、アルゴリズム、応用の幅広い範囲で研究されている。
我々は,この新奇で継続的な研究分野を包括的に調査し,画像に基づく3D検出に最もよく使用されるパイプラインを要約する。
論文 参考訳(メタデータ) (2022-02-07T07:12:24Z) - KITTI-360: A Novel Dataset and Benchmarks for Urban Scene Understanding
in 2D and 3D [67.50776195828242]
KITTI-360は、よりリッチな入力モダリティ、包括的なセマンティックインスタンスアノテーション、正確なローカライゼーションを含む郊外の運転データセットである。
その結果,150k以上のセマンティクスとインスタンスのアノテート画像と1Bのアノテート3Dポイントが得られた。
我々は、同じデータセット上のコンピュータビジョン、グラフィックス、ロボット工学の問題を含む、モバイル知覚に関連するいくつかのタスクのベンチマークとベースラインを構築した。
論文 参考訳(メタデータ) (2021-09-28T00:41:29Z) - Disentangling and Vectorization: A 3D Visual Perception Approach for
Autonomous Driving Based on Surround-View Fisheye Cameras [3.485767750936058]
多次元ベクトルは、異なる次元と段階で生成される有効情報を含むことが提案されている。
実魚眼画像実験により,本手法は実時間で最先端の精度を達成できることが実証された。
論文 参考訳(メタデータ) (2021-07-19T13:24:21Z) - Learnable Online Graph Representations for 3D Multi-Object Tracking [156.58876381318402]
3D MOT問題に対する統一型学習型アプローチを提案します。
我々は、完全にトレーニング可能なデータアソシエーションにNeural Message Passing Networkを使用します。
AMOTAの65.6%の最先端性能と58%のIDスウィッチを達成して、公開可能なnuScenesデータセットに対する提案手法のメリットを示す。
論文 参考訳(メタデータ) (2021-04-23T17:59:28Z) - Kinematic 3D Object Detection in Monocular Video [123.7119180923524]
運動運動を注意深く利用して3次元位置決めの精度を向上させるモノクロ映像を用いた3次元物体検出法を提案する。
我々は、KITTI自動運転データセット内のモノクロ3次元物体検出とバードアイビュータスクの最先端性能を達成する。
論文 参考訳(メタデータ) (2020-07-19T01:15:12Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。