論文の概要: Reconstruct from Top View: A 3D Lane Detection Approach based on
Geometry Structure Prior
- arxiv url: http://arxiv.org/abs/2206.10098v1
- Date: Tue, 21 Jun 2022 04:03:03 GMT
- ステータス: 処理完了
- システム内更新日: 2022-06-22 14:57:12.090063
- Title: Reconstruct from Top View: A 3D Lane Detection Approach based on
Geometry Structure Prior
- Title(参考訳): トップビューからの再構成:幾何構造に基づく3次元レーン検出アプローチ
- Authors: Chenguang Li, Jia Shi, Ya Wang, Guangliang Cheng
- Abstract要約: 本研究では,2次元から3次元のレーン再構成プロセスの下での幾何学的構造を利用して,単分子式3次元レーン検出問題に対する高度なアプローチを提案する。
まず, 3次元車線と地上2次元車線との形状を解析し, 先行構造に基づく明示的な監督を提案する。
第2に、2次元レーン表現における構造損失を低減するため、フロントビュー画像からトップビューレーン情報を直接抽出する。
- 参考スコア(独自算出の注目度): 19.1954119672487
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In this paper, we propose an advanced approach in targeting the problem of
monocular 3D lane detection by leveraging geometry structure underneath the
process of 2D to 3D lane reconstruction. Inspired by previous methods, we first
analyze the geometry heuristic between the 3D lane and its 2D representation on
the ground and propose to impose explicit supervision based on the structure
prior, which makes it achievable to build inter-lane and intra-lane
relationships to facilitate the reconstruction of 3D lanes from local to
global. Second, to reduce the structure loss in 2D lane representation, we
directly extract top view lane information from front view images, which
tremendously eases the confusion of distant lane features in previous methods.
Furthermore, we propose a novel task-specific data augmentation method by
synthesizing new training data for both segmentation and reconstruction tasks
in our pipeline, to counter the imbalanced data distribution of camera pose and
ground slope to improve generalization on unseen data. Our work marks the first
attempt to employ the geometry prior information into DNN-based 3D lane
detection and makes it achievable for detecting lanes in an extra-long
distance, doubling the original detection range. The proposed method can be
smoothly adopted by other frameworks without extra costs. Experimental results
show that our work outperforms state-of-the-art approaches by 3.8% F-Score on
Apollo 3D synthetic dataset at real-time speed of 82 FPS without introducing
extra parameters.
- Abstract(参考訳): 本稿では,2次元から3次元への再構成過程における幾何構造を活用し,単眼3次元レーン検出の課題を対象とする先進的アプローチを提案する。
先行手法に触発されて,まず3次元レーンと地上の2次元表現との幾何学的ヒューリスティックスを解析し,先行構造に基づく明示的な監督を課すことにより,車線間関係と車線内関係の構築を可能にし,局所からグローバルへの3次元レーンの再構築を容易にする。
第2に,2次元レーン表現における構造損失を低減するため,正面画像からトップビューレーン情報を直接抽出することで,従来手法における遠方レーン特徴の混乱を著しく緩和する。
さらに,パイプライン内のセグメンテーションタスクと再構築タスクの両方に新たなトレーニングデータを合成して,カメラポーズと地上斜面の不均衡なデータ分布に対処し,見えないデータの一般化を改善するタスク固有データ拡張手法を提案する。
我々の研究は、DNNに基づく3次元車線検出に先立つ幾何学的情報を活用する最初の試みであり、遠距離での車線検出を可能にし、元の検出範囲を2倍にする。
提案手法は余分なコストを伴わずに他のフレームワークにスムーズに適用することができる。
実験の結果,apollo 3d 合成データセットにおける最先端の f-score を 82 fps のリアルタイム速度で3.8% 向上させた。
関連論文リスト
- 3D Lane Detection from Front or Surround-View using Joint-Modeling & Matching [27.588395086563978]
本稿では,Bezier曲線と手法を組み合わせた共同モデリング手法を提案する。
また,3次元サラウンドビューレーン検出研究の探索を目的とした新しい3次元空間についても紹介する。
この革新的な手法は、Openlaneデータセットのフロントビュー3Dレーン検出において、新しいベンチマークを確立する。
論文 参考訳(メタデータ) (2024-01-16T01:12:24Z) - OccNeRF: Advancing 3D Occupancy Prediction in LiDAR-Free Environments [77.0399450848749]
本稿では,OccNeRF法を用いて,3次元監視なしで占有ネットワークを訓練する手法を提案する。
我々は、再構成された占有領域をパラメータ化し、サンプリング戦略を再編成し、カメラの無限知覚範囲に合わせる。
意味的占有予測のために,事前学習した開語彙2Dセグメンテーションモデルの出力をフィルタリングし,プロンプトを洗練するためのいくつかの戦略を設計する。
論文 参考訳(メタデータ) (2023-12-14T18:58:52Z) - ALSTER: A Local Spatio-Temporal Expert for Online 3D Semantic
Reconstruction [62.599588577671796]
本稿では,RGB-Dフレームのストリームから3次元セマンティックマップを段階的に再構成するオンライン3次元セマンティックセマンティックセマンティクス手法を提案する。
オフラインの手法とは異なり、ロボット工学や混合現実のようなリアルタイムな制約のあるシナリオに直接適用できます。
論文 参考訳(メタデータ) (2023-11-29T20:30:18Z) - Decoupling the Curve Modeling and Pavement Regression for Lane Detection [67.22629246312283]
曲線に基づく車線表現は多くの車線検出法で一般的な手法である。
本稿では,曲線モデルと地上高さ回帰という2つの部分に分解することで,車線検出タスクに対する新しいアプローチを提案する。
論文 参考訳(メタデータ) (2023-09-19T11:24:14Z) - NEAT: Distilling 3D Wireframes from Neural Attraction Fields [52.90572335390092]
本稿では,3次元再構成セグメントと焦点接合を用いたラインフレーム接合の問題について検討する。
ProjectNEATは、クロスアートマッチングをゼロから行わずに、ジョイントニューラルフィールドとビューを楽しみます。
論文 参考訳(メタデータ) (2023-07-14T07:25:47Z) - Geometric-aware Pretraining for Vision-centric 3D Object Detection [77.7979088689944]
GAPretrainと呼ばれる新しい幾何学的事前学習フレームワークを提案する。
GAPretrainは、複数の最先端検出器に柔軟に適用可能なプラグアンドプレイソリューションとして機能する。
BEVFormer法を用いて, nuScenes val の 46.2 mAP と 55.5 NDS を実現し, それぞれ 2.7 と 2.1 点を得た。
論文 参考訳(メタデータ) (2023-04-06T14:33:05Z) - ONCE-3DLanes: Building Monocular 3D Lane Detection [41.46466150783367]
OnCE-3DLanesは3次元空間にレーンレイアウトアノテーションを付加した実世界の自律走行データセットである。
点雲と画像ピクセルとの明確な関係を利用して、データセットのアノテーションパイプラインは、高品質な3Dレーンの位置を自動的に生成するように設計されている。
論文 参考訳(メタデータ) (2022-04-30T16:35:25Z) - Monocular Road Planar Parallax Estimation [25.36368935789501]
乾燥可能な表面および周囲環境の3次元構造を推定することは、補助的かつ自律的な運転にとって重要な課題である。
単眼画像からの3Dセンシングのための新しいディープニューラルネットワークであるRoad Planar Parallax Attention Network (RPANet)を提案する。
RPANetは、路面のホモグラフィに整列した一対の画像を入力として取り、3D再構成のための$gamma$mapを出力する。
論文 参考訳(メタデータ) (2021-11-22T10:03:41Z) - Next-best-view Regression using a 3D Convolutional Neural Network [0.9449650062296823]
本論文では,次のベストビュー問題に対するデータ駆動アプローチを提案する。
提案手法は、次のベストビューのbtxtpositionを抑えるために、以前の再構成で3D畳み込みニューラルネットワークを訓練する。
提案手法を2つの実験グループを用いて検証した。
論文 参考訳(メタデータ) (2021-01-23T01:50:26Z) - Reinforced Axial Refinement Network for Monocular 3D Object Detection [160.34246529816085]
モノクロ3次元物体検出は、2次元入力画像から物体の位置と特性を抽出することを目的としている。
従来のアプローチでは、空間から3D境界ボックスをサンプリングし、対象オブジェクトと各オブジェクトの関係を推定するが、有効サンプルの確率は3D空間で比較的小さい。
我々は,まず最初の予測から始めて,各ステップで1つの3dパラメータだけを変えて,基礎的真理に向けて徐々に洗練することを提案する。
これは、いくつかのステップの後に報酬を得るポリシーを設計する必要があるため、最適化するために強化学習を採用します。
論文 参考訳(メタデータ) (2020-08-31T17:10:48Z) - SMOKE: Single-Stage Monocular 3D Object Detection via Keypoint
Estimation [3.1542695050861544]
3Dの向きとオブジェクトの変換を推定することは、インフラストラクチャレスの自律走行と運転に不可欠である。
SMOKEと呼ばれる新しい3次元オブジェクト検出手法を提案する。
構造的単純さにもかかわらず、提案するSMOKEネットワークは、KITTIデータセット上の既存のモノクル3D検出方法よりも優れている。
論文 参考訳(メタデータ) (2020-02-24T08:15:36Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。