論文の概要: 3D-LaneNet+: Anchor Free Lane Detection using a Semi-Local
Representation
- arxiv url: http://arxiv.org/abs/2011.01535v2
- Date: Wed, 4 Nov 2020 12:25:04 GMT
- ステータス: 処理完了
- システム内更新日: 2022-09-30 23:28:27.883314
- Title: 3D-LaneNet+: Anchor Free Lane Detection using a Semi-Local
Representation
- Title(参考訳): 3D-LaneNet+:半局所表現を用いたアンカーフリーレーン検出
- Authors: Netalee Efrat, Max Bluvstein, Shaul Oron, Dan Levi, Noa Garnett, Bat
El Shlomo
- Abstract要約: 3D-LaneNet+はカメラベースで3Dレーンをアンカーする手法である。
我々は最近提案された3D-LaneNetに従い、それを拡張して、事前にサポートされていないレーントポロジーの検出を可能にした。
合成データと実世界データの両方を用いて3D-LaneNet+の有効性を実証する。
- 参考スコア(独自算出の注目度): 6.296104145657063
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: 3D-LaneNet+ is a camera-based DNN method for anchor free 3D lane detection
which is able to detect 3d lanes of any arbitrary topology such as splits,
merges, as well as short and perpendicular lanes. We follow recently proposed
3D-LaneNet, and extend it to enable the detection of these previously
unsupported lane topologies. Our output representation is an anchor free,
semi-local tile representation that breaks down lanes into simple lane segments
whose parameters can be learnt. In addition we learn, per lane instance,
feature embedding that reasons for the global connectivity of locally detected
segments to form full 3d lanes. This combination allows 3D-LaneNet+ to avoid
using lane anchors, non-maximum suppression, and lane model fitting as in the
original 3D-LaneNet. We demonstrate the efficacy of 3D-LaneNet+ using both
synthetic and real world data. Results show significant improvement relative to
the original 3D-LaneNet that can be attributed to better generalization to
complex lane topologies, curvatures and surface geometries.
- Abstract(参考訳): 3D-LaneNet+は、スプリット、マージ、ショートレーン、垂直レーンなどの任意のトポロジーの3dレーンを検出できるカメラベースの3Dレーン検出のためのDNN方式である。
我々は,最近提案する3d-lanenetを追従し,これら従来サポートされていないレーントポロジの検出を可能にするように拡張する。
我々の出力表現はアンカーフリーな半局所タイル表現であり、レーンをパラメータを学習可能な単純なレーンセグメントに分解する。
さらに、レーンのインスタンスごとに、ローカルに検出されたセグメントのグローバル接続が完全な3dレーンを形成する理由を組み込んだ特徴を学習する。
この組み合わせにより、3D-LaneNet+は、オリジナルの3D-LaneNetのようにレーンアンカーの使用、非最大抑制、レーンモデルの適合を避けることができる。
合成データと実世界データの両方を用いて3D-LaneNet+の有効性を示す。
その結果, 複雑なレーントポロジー, 曲率, 表面形状へのより良い一般化に起因した, オリジナルの3dレーンネットと比較して大きな改善が見られた。
関連論文リスト
- Enhancing 3D Lane Detection and Topology Reasoning with 2D Lane Priors [40.92232275558338]
3次元車線検出とトポロジー推論は、自動運転シナリオにおいて必須のタスクである。
Topo2DはTransformerをベースとした新しいフレームワークで、2Dレーンインスタンスを利用して3Dクエリと3D位置埋め込みを初期化する。
Topo2Dは、マルチビュートポロジ推論ベンチマークOpenLane-V2で44.5% OLS、シングルビュー3Dレーン検出ベンチマークOpenLaneで62.6%のF-Socreを達成した。
論文 参考訳(メタデータ) (2024-06-05T09:48:56Z) - 3D Lane Detection from Front or Surround-View using Joint-Modeling & Matching [27.588395086563978]
本稿では,Bezier曲線と手法を組み合わせた共同モデリング手法を提案する。
また,3次元サラウンドビューレーン検出研究の探索を目的とした新しい3次元空間についても紹介する。
この革新的な手法は、Openlaneデータセットのフロントビュー3Dレーン検出において、新しいベンチマークを確立する。
論文 参考訳(メタデータ) (2024-01-16T01:12:24Z) - Decoupling the Curve Modeling and Pavement Regression for Lane Detection [67.22629246312283]
曲線に基づく車線表現は多くの車線検出法で一般的な手法である。
本稿では,曲線モデルと地上高さ回帰という2つの部分に分解することで,車線検出タスクに対する新しいアプローチを提案する。
論文 参考訳(メタデータ) (2023-09-19T11:24:14Z) - WS-3D-Lane: Weakly Supervised 3D Lane Detection With 2D Lane Labels [3.717577432863157]
弱教師付き3次元車線検出WS-3D-車線という,2次元車線ラベルのみを用いた3次元車線学習手法を提案する。
Fスコアはアポロ3D合成データセットで92.3%、F1はONCE-3DLanesで74.5%まで上昇する。
論文 参考訳(メタデータ) (2022-09-23T11:07:08Z) - ONCE-3DLanes: Building Monocular 3D Lane Detection [41.46466150783367]
OnCE-3DLanesは3次元空間にレーンレイアウトアノテーションを付加した実世界の自律走行データセットである。
点雲と画像ピクセルとの明確な関係を利用して、データセットのアノテーションパイプラインは、高品質な3Dレーンの位置を自動的に生成するように設計されている。
論文 参考訳(メタデータ) (2022-04-30T16:35:25Z) - PersFormer: 3D Lane Detection via Perspective Transformer and the
OpenLane Benchmark [109.03773439461615]
PersFormerは、新しいトランスフォーマーベースの空間特徴変換モジュールを備えた、エンドツーエンドのモノクル3Dレーン検出器である。
高品質なアノテーションとシナリオの多様性を備えたOpenLaneと呼ばれる,最初の大規模な3Dレーンデータセットの1つをリリースしました。
論文 参考訳(メタデータ) (2022-03-21T16:12:53Z) - From Multi-View to Hollow-3D: Hallucinated Hollow-3D R-CNN for 3D Object
Detection [101.20784125067559]
本稿では,3次元物体検出の問題に対処するため,Halucinated Hollow-3D R-CNNという新しいアーキテクチャを提案する。
本稿では,まず,視点ビューと鳥眼ビューに点雲を逐次投影することで,多視点特徴を抽出する。
3Dオブジェクトは、新しい階層型Voxel RoIプール操作でボックスリファインメントモジュールを介して検出される。
論文 参考訳(メタデータ) (2021-07-30T02:00:06Z) - DH3D: Deep Hierarchical 3D Descriptors for Robust Large-Scale 6DoF
Relocalization [56.15308829924527]
生の3D点から直接3次元特徴の検出と記述を共同で学習するシームズネットワークを提案する。
3次元キーポイントを検出するために,局所的な記述子の識別性を教師なしで予測する。
各種ベンチマーク実験により,本手法はグローバルポイントクラウド検索とローカルポイントクラウド登録の両面で競合する結果が得られた。
論文 参考訳(メタデータ) (2020-07-17T20:21:22Z) - End-to-End Pseudo-LiDAR for Image-Based 3D Object Detection [62.34374949726333]
擬似LiDAR(PL)は、LiDARセンサに基づく手法と安価なステレオカメラに基づく手法の精度ギャップを劇的に減らした。
PLは最先端のディープニューラルネットワークと2D深度マップ出力を3Dポイントクラウド入力に変換することで3Dオブジェクト検出のための3D深度推定を組み合わせている。
我々は、PLパイプライン全体をエンドツーエンドにトレーニングできるように、差別化可能なRepresentation (CoR)モジュールに基づく新しいフレームワークを導入します。
論文 参考訳(メタデータ) (2020-04-07T02:18:38Z) - Gen-LaneNet: A Generalized and Scalable Approach for 3D Lane Detection [6.385728262904713]
Gen-LaneNetは、画像符号化、特徴の空間変換、単一ネットワークでの3次元レーン予測を統一したフレームワークである。
3D-LaneNetと比較して、提案されているGen-LaneNetは、現実世界のアプリケーションで堅牢なソリューションを実現するために必要な3Dレーンラベルの量を劇的に削減する。
論文 参考訳(メタデータ) (2020-03-24T04:52:06Z) - DSGN: Deep Stereo Geometry Network for 3D Object Detection [79.16397166985706]
画像ベースとLiDARベースの3Dオブジェクト検出器の間には大きなパフォーマンスギャップがある。
我々の手法であるDeep Stereo Geometry Network (DSGN)は,このギャップを著しく低減する。
初めて、シンプルで効果的な1段ステレオベースの3D検出パイプラインを提供する。
論文 参考訳(メタデータ) (2020-01-10T11:44:37Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。