論文の概要: CurveFormer: 3D Lane Detection by Curve Propagation with Curve Queries
and Attention
- arxiv url: http://arxiv.org/abs/2209.07989v1
- Date: Fri, 16 Sep 2022 14:54:57 GMT
- ステータス: 処理完了
- システム内更新日: 2022-09-19 13:01:41.235140
- Title: CurveFormer: 3D Lane Detection by Curve Propagation with Curve Queries
and Attention
- Title(参考訳): curveformer:曲線クエリと注意による曲線伝搬による3次元レーン検出
- Authors: Yifeng Bai, Zhirong Chen, Zhangjie Fu, Lang Peng, Pengpeng Liang,
Erkang Cheng
- Abstract要約: 3Dレーン検出は、自動運転システムにとって不可欠な部分である。
以前のCNNとTransformerベースの手法は、通常、フロントビューイメージから鳥の目視(BEV)特徴マップを生成する。
単段トランスフォーマーを用いた3次元レーンパラメータの直接計算法であるCurveFormerを提案する。
- 参考スコア(独自算出の注目度): 3.330270927081078
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: 3D lane detection is an integral part of autonomous driving systems. Previous
CNN and Transformer-based methods usually first generate a bird's-eye-view
(BEV) feature map from the front view image, and then use a sub-network with
BEV feature map as input to predict 3D lanes. Such approaches require an
explicit view transformation between BEV and front view, which itself is still
a challenging problem. In this paper, we propose CurveFormer, a single-stage
Transformer-based method that directly calculates 3D lane parameters and can
circumvent the difficult view transformation step. Specifically, we formulate
3D lane detection as a curve propagation problem by using curve queries. A 3D
lane query is represented by a dynamic and ordered anchor point set. In this
way, queries with curve representation in Transformer decoder iteratively
refine the 3D lane detection results. Moreover, a curve cross-attention module
is introduced to compute the similarities between curve queries and image
features. Additionally, a context sampling module that can capture more
relative image features of a curve query is provided to further boost the 3D
lane detection performance. We evaluate our method for 3D lane detection on
both synthetic and real-world datasets, and the experimental results show that
our method achieves promising performance compared with the state-of-the-art
approaches. The effectiveness of each component is validated via ablation
studies as well.
- Abstract(参考訳): 3Dレーン検出は自動運転システムにとって不可欠な部分である。
従来のCNNとTransformerベースの手法は、通常、正面から鳥の目視(BEV)特徴マップを生成し、次に入力としてBEV特徴マップとサブネットワークを使用して3Dレーンを予測する。
このようなアプローチでは、bevとfront viewの間に明示的なビュー変換が必要になる。
本稿では,3dレーンパラメータを直接計算し,難視変換ステップを回避できる単段変圧器方式のcurveformerを提案する。
具体的には,曲線クエリを用いて3次元レーン検出を曲線伝搬問題として定式化する。
3Dレーンクエリは動的および順序付けられたアンカーポイントセットで表現される。
このように、Transformerデコーダの曲線表現を持つクエリは、3Dレーン検出結果を反復的に洗練する。
さらに、曲線クエリと画像特徴との類似性を計算するために、曲線横断モジュールを導入する。
さらに、3Dレーン検出性能をさらに向上させるため、曲線クエリのより相対的な画像特徴をキャプチャ可能なコンテキストサンプリングモジュールを提供する。
本研究では,合成データと実世界データの両方における3次元レーン検出手法の評価を行い,本手法が最先端手法と比較して有望な性能が得られることを示す。
それぞれの成分の有効性はアブレーション研究によって検証される。
関連論文リスト
- NeRFDeformer: NeRF Transformation from a Single View via 3D Scene Flows [60.291277312569285]
本研究では,単一観測値に基づいてNeRF表現を自動的に修正する手法を提案する。
本手法は, 変形を3次元流れ, 特に剛性変換の重み付き線形ブレンディングとして定義する。
また,単一観測によるNeRFシーンの修正問題を探索するための新しいデータセットも導入した。
論文 参考訳(メタデータ) (2024-06-15T07:58:08Z) - CurveFormer++: 3D Lane Detection by Curve Propagation with Temporal
Curve Queries and Attention [6.337799395191661]
画像特徴ビュー変換モジュールを必要としない単一ステージのTransformerベースのCurveFormer++を提案する。
Transformerデコーダを使用することで、3Dレーン検出結果を反復的に洗練することができる。
実世界の2つの公開データセット上での3次元車線検出タスクに対するアプローチを評価する。
論文 参考訳(メタデータ) (2024-02-09T14:13:40Z) - 3D Lane Detection from Front or Surround-View using Joint-Modeling & Matching [27.588395086563978]
本稿では,Bezier曲線と手法を組み合わせた共同モデリング手法を提案する。
また,3次元サラウンドビューレーン検出研究の探索を目的とした新しい3次元空間についても紹介する。
この革新的な手法は、Openlaneデータセットのフロントビュー3Dレーン検出において、新しいベンチマークを確立する。
論文 参考訳(メタデータ) (2024-01-16T01:12:24Z) - Decoupling the Curve Modeling and Pavement Regression for Lane Detection [67.22629246312283]
曲線に基づく車線表現は多くの車線検出法で一般的な手法である。
本稿では,曲線モデルと地上高さ回帰という2つの部分に分解することで,車線検出タスクに対する新しいアプローチを提案する。
論文 参考訳(メタデータ) (2023-09-19T11:24:14Z) - An Efficient Transformer for Simultaneous Learning of BEV and Lane
Representations in 3D Lane Detection [55.281369497158515]
3次元車線検出のための効率的な変圧器を提案する。
バニラ変圧器と異なり、我々のモデルは車線とBEVの表現を同時に学習するクロスアテンション機構を含んでいる。
本手法は,2次元および3次元の車線特徴を画像ビューとBEVの特徴にそれぞれ適用することにより,2次元および3次元車線予測を実現する。
論文 参考訳(メタデータ) (2023-06-08T04:18:31Z) - Online Lane Graph Extraction from Onboard Video [133.68032636906133]
オンボードカメラからの映像ストリームを、周囲のレーングラフのオンライン抽出に使用しています。
入力が1つの画像ではなくビデオを使うことは、異なるタイムステップからの情報を組み合わせることのメリットと課題の両方をもたらす。
提案手法の1つのモデルでは、1つを含む任意の数の画像を処理し、正確なレーングラフを生成することができる。
論文 参考訳(メタデータ) (2023-04-03T12:36:39Z) - Rethinking Efficient Lane Detection via Curve Modeling [37.45243848960598]
提案手法は,LLAMASベンチマークにおける最先端性能を実現する。
また、TuSimpleとCUデータセットに対して、低レイテンシ (> 150 FPS) と小さなモデルサイズ (10M) の両方を維持しながら、良好な精度を実現している。
論文 参考訳(メタデータ) (2022-03-04T17:00:33Z) - DOPS: Learning to Detect 3D Objects and Predict their 3D Shapes [54.239416488865565]
LIDARデータに対する高速な1段3次元物体検出法を提案する。
我々の手法の中核となる新規性は高速かつシングルパスアーキテクチャであり、どちらも3次元の物体を検出し、それらの形状を推定する。
提案手法は,ScanNetシーンのオブジェクト検出で5%,オープンデータセットでは3.4%の精度で結果が得られた。
論文 参考訳(メタデータ) (2020-04-02T17:48:50Z) - Road Curb Detection and Localization with Monocular Forward-view Vehicle
Camera [74.45649274085447]
魚眼レンズを装着した校正単眼カメラを用いて3Dパラメータを推定するロバストな手法を提案する。
我々のアプローチでは、車両が90%以上の精度で、リアルタイムで距離を抑えることができる。
論文 参考訳(メタデータ) (2020-02-28T00:24:18Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。