論文の概要: WS-3D-Lane: Weakly Supervised 3D Lane Detection With 2D Lane Labels
- arxiv url: http://arxiv.org/abs/2209.11523v1
- Date: Fri, 23 Sep 2022 11:07:08 GMT
- ステータス: 処理完了
- システム内更新日: 2022-09-26 13:35:07.279198
- Title: WS-3D-Lane: Weakly Supervised 3D Lane Detection With 2D Lane Labels
- Title(参考訳): WS-3D車線:2D車線ラベルで3D車線検出を監督
- Authors: Jianyong Ai, Wenbo Ding, Jiuhua Zhao, Jiachen Zhong
- Abstract要約: 弱教師付き3次元車線検出WS-3D-車線という,2次元車線ラベルのみを用いた3次元車線学習手法を提案する。
Fスコアはアポロ3D合成データセットで92.3%、F1はONCE-3DLanesで74.5%まで上昇する。
- 参考スコア(独自算出の注目度): 3.717577432863157
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Compared to 2D lanes, real 3D lane data is difficult to collect accurately.
In this paper, we propose a novel method for training 3D lanes with only 2D
lane labels, called weakly supervised 3D lane detection WS-3D-Lane. By
assumptions of constant lane width and equal height on adjacent lanes, we
indirectly supervise 3D lane heights in the training. To overcome the problem
of the dynamic change of the camera pitch during data collection, a camera
pitch self-calibration method is proposed. In anchor representation, we propose
a double-layer anchor with a improved non-maximum suppression (NMS) method,
which enables the anchor-based method to predict two lane lines that are close.
Experiments are conducted on the base of 3D-LaneNet under two supervision
methods. Under weakly supervised setting, our WS-3D-Lane outperforms previous
3D-LaneNet: F-score rises to 92.3% on Apollo 3D synthetic dataset, and F1 rises
to 74.5% on ONCE-3DLanes. Meanwhile, WS-3D-Lane in purely supervised setting
makes more increments and outperforms state-of-the-art. To the best of our
knowledge, WS-3D-Lane is the first try of 3D lane detection under weakly
supervised setting.
- Abstract(参考訳): 2Dレーンと比較して、実際の3Dレーンデータは正確に収集するのは難しい。
本稿では,弱教師付き3dレーン検出ws-3dレーンと呼ばれる,2dレーンラベルのみを用いた3dレーンの訓練手法を提案する。
隣接する車線上での車線幅と等高の仮定により, 訓練時の3次元車線高さを間接的に監督する。
データ収集時のカメラピッチの動的変化の問題を克服するため,カメラピッチ自己校正法を提案する。
アンカー表現では,非最大抑制法(nms法)を改良した二重層アンカーを提案する。
3D-LaneNetをベースとした2つの監視手法による実験を行った。
f-scoreはアポロ3d合成データセットで92.3%、f1は1つの3dレーンで74.5%まで上昇します。
一方、純粋に監督された設定のWS-3D-Laneは、より多くのインクリメントを行い、最先端よりも優れています。
我々の知る限りでは、WS-3D-Laneは弱教師付き環境下での3Dレーン検出の最初の試みである。
関連論文リスト
- Enhancing 3D Lane Detection and Topology Reasoning with 2D Lane Priors [40.92232275558338]
3次元車線検出とトポロジー推論は、自動運転シナリオにおいて必須のタスクである。
Topo2DはTransformerをベースとした新しいフレームワークで、2Dレーンインスタンスを利用して3Dクエリと3D位置埋め込みを初期化する。
Topo2Dは、マルチビュートポロジ推論ベンチマークOpenLane-V2で44.5% OLS、シングルビュー3Dレーン検出ベンチマークOpenLaneで62.6%のF-Socreを達成した。
論文 参考訳(メタデータ) (2024-06-05T09:48:56Z) - Weakly Supervised 3D Object Detection via Multi-Level Visual Guidance [72.6809373191638]
本稿では,3次元ラベルを必要とせずに2次元ドメインと3次元ドメイン間の制約を活用できるフレームワークを提案する。
具体的には、LiDARと画像特徴をオブジェクト認識領域に基づいて整列する特徴レベルの制約を設計する。
第二に、出力レベルの制約は、2Dと投影された3Dボックスの推定の重なりを強制するために開発される。
第3に、トレーニングレベルの制約は、視覚データと整合した正確で一貫した3D擬似ラベルを生成することによって利用される。
論文 参考訳(メタデータ) (2023-12-12T18:57:25Z) - PonderV2: Pave the Way for 3D Foundation Model with A Universal
Pre-training Paradigm [114.47216525866435]
本稿では,効率的な3D表現の獲得を容易にするために,新しいユニバーサル3D事前学習フレームワークを提案する。
PonderV2は、11の室内および屋外ベンチマークで最先端のパフォーマンスを達成したことで、その効果が示唆された。
論文 参考訳(メタデータ) (2023-10-12T17:59:57Z) - UniPAD: A Universal Pre-training Paradigm for Autonomous Driving [74.34701012543968]
3次元微分レンダリングを応用した新しい自己教師型学習パラダイムUniPADを提案する。
UniPADは暗黙的に3D空間を符号化し、連続した3D形状の構造の再構築を容易にする。
本手法はライダーカメラ,カメラカメラ,ライダーカメラベースラインを9.1,7.7,6.9 NDSで大幅に改善する。
論文 参考訳(メタデータ) (2023-10-12T14:39:58Z) - LATR: 3D Lane Detection from Monocular Images with Transformer [42.34193673590758]
単眼画像からの3次元車線検出は、自動運転の基本的な課題である。
最近の進歩は、前面画像の特徴とカメラパラメータから構築された構造的な3Dサロゲートに依存している。
本稿では, 3D-aware front-view機能を用いた3次元車線検出システムであるLATRモデルを提案する。
論文 参考訳(メタデータ) (2023-08-08T21:08:42Z) - FocalFormer3D : Focusing on Hard Instance for 3D Object Detection [97.56185033488168]
3次元物体検出における偽陰性(False negatives, FN)は、自動運転において潜在的に危険な状況を引き起こす可能性がある。
本研究では,マルチステージ方式でtextitFN を識別する汎用パイプラインである Hard Instance Probing (HIP) を提案する。
この手法をFocalFormer3Dとしてインスタンス化する。
論文 参考訳(メタデータ) (2023-08-08T20:06:12Z) - Weakly Supervised Monocular 3D Object Detection using Multi-View
Projection and Direction Consistency [78.76508318592552]
モノクロ3Dオブジェクト検出は、その容易なアプリケーションのための自動駆動において、主流のアプローチとなっている。
現在のほとんどの方法は、トレーニングフェーズで使用される真実をラベル付けするために、まだ3Dポイントのクラウドデータに依存しています。
画像にマークされた2次元ラベルだけでモデルを訓練できる,弱教師付きモノクル3次元オブジェクト検出法を提案する。
論文 参考訳(メタデータ) (2023-03-15T15:14:00Z) - ONCE-3DLanes: Building Monocular 3D Lane Detection [41.46466150783367]
OnCE-3DLanesは3次元空間にレーンレイアウトアノテーションを付加した実世界の自律走行データセットである。
点雲と画像ピクセルとの明確な関係を利用して、データセットのアノテーションパイプラインは、高品質な3Dレーンの位置を自動的に生成するように設計されている。
論文 参考訳(メタデータ) (2022-04-30T16:35:25Z) - PersFormer: 3D Lane Detection via Perspective Transformer and the
OpenLane Benchmark [109.03773439461615]
PersFormerは、新しいトランスフォーマーベースの空間特徴変換モジュールを備えた、エンドツーエンドのモノクル3Dレーン検出器である。
高品質なアノテーションとシナリオの多様性を備えたOpenLaneと呼ばれる,最初の大規模な3Dレーンデータセットの1つをリリースしました。
論文 参考訳(メタデータ) (2022-03-21T16:12:53Z) - 3D-LaneNet+: Anchor Free Lane Detection using a Semi-Local
Representation [6.296104145657063]
3D-LaneNet+はカメラベースで3Dレーンをアンカーする手法である。
我々は最近提案された3D-LaneNetに従い、それを拡張して、事前にサポートされていないレーントポロジーの検出を可能にした。
合成データと実世界データの両方を用いて3D-LaneNet+の有効性を実証する。
論文 参考訳(メタデータ) (2020-11-01T11:07:13Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。