論文の概要: Gen-LaneNet: A Generalized and Scalable Approach for 3D Lane Detection
- arxiv url: http://arxiv.org/abs/2003.10656v1
- Date: Tue, 24 Mar 2020 04:52:06 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-20 09:07:52.563592
- Title: Gen-LaneNet: A Generalized and Scalable Approach for 3D Lane Detection
- Title(参考訳): Gen-LaneNet: 3Dレーン検出のための汎用的でスケーラブルなアプローチ
- Authors: Yuliang Guo, Guang Chen, Peitao Zhao, Weide Zhang, Jinghao Miao,
Jingao Wang and Tae Eun Choe
- Abstract要約: Gen-LaneNetは、画像符号化、特徴の空間変換、単一ネットワークでの3次元レーン予測を統一したフレームワークである。
3D-LaneNetと比較して、提案されているGen-LaneNetは、現実世界のアプリケーションで堅牢なソリューションを実現するために必要な3Dレーンラベルの量を劇的に削減する。
- 参考スコア(独自算出の注目度): 6.385728262904713
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We present a generalized and scalable method, called Gen-LaneNet, to detect
3D lanes from a single image. The method, inspired by the latest
state-of-the-art 3D-LaneNet, is a unified framework solving image encoding,
spatial transform of features and 3D lane prediction in a single network.
However, we propose unique designs for Gen-LaneNet in two folds. First, we
introduce a new geometry-guided lane anchor representation in a new coordinate
frame and apply a specific geometric transformation to directly calculate real
3D lane points from the network output. We demonstrate that aligning the lane
points with the underlying top-view features in the new coordinate frame is
critical towards a generalized method in handling unfamiliar scenes. Second, we
present a scalable two-stage framework that decouples the learning of image
segmentation subnetwork and geometry encoding subnetwork. Compared to
3D-LaneNet, the proposed Gen-LaneNet drastically reduces the amount of 3D lane
labels required to achieve a robust solution in real-world application.
Moreover, we release a new synthetic dataset and its construction strategy to
encourage the development and evaluation of 3D lane detection methods. In
experiments, we conduct extensive ablation study to substantiate the proposed
Gen-LaneNet significantly outperforms 3D-LaneNet in average precision(AP) and
F-score.
- Abstract(参考訳): 我々はGen-LaneNetと呼ばれる一般化されたスケーラブルな手法を提案し、単一の画像から3Dレーンを検出する。
最新の最先端の3d-lanenetにインスパイアされたこの手法は、画像エンコーディング、特徴の空間変換、3dレーン予測を単一のネットワークで解決する統一フレームワークである。
しかし、Gen-LaneNetのユニークな設計を2つの折り畳みで提案する。
まず,新しい座標系に新しい幾何誘導レーンアンカー表現を導入し,ネットワーク出力から実3次元レーン点を直接計算するために,特定の幾何変換を適用する。
我々は,新しい座標系における車線点と基本となるトップビュー機能との整合が,未知のシーンを扱う一般的な方法に不可欠であることを実証する。
次に,画像分割サブネットワークとジオメトリエンコーディングサブネットワークの学習を分離するスケーラブルな2段階フレームワークを提案する。
3D-LaneNetと比較して、提案されているGen-LaneNetは、現実世界のアプリケーションで堅牢なソリューションを実現するために必要な3Dレーンラベルの量を劇的に削減する。
さらに,3次元車線検出手法の開発と評価を促進するため,新しい合成データセットとその構築戦略を公表した。
実験では,提案したGen-LaneNetが平均精度(AP)およびFスコアで3D-LaneNetより有意に優れていることを示す。
関連論文リスト
- SeMLaPS: Real-time Semantic Mapping with Latent Prior Networks and
Quasi-Planar Segmentation [53.83313235792596]
本稿では,RGB-Dシーケンスからのリアルタイム意味マッピングのための新しい手法を提案する。
2DニューラルネットワークとSLAMシステムに基づく3Dネットワークと3D占有マッピングを組み合わせる。
本システムは,2D-3Dネットワークベースシステムにおいて,最先端のセマンティックマッピング品質を実現する。
論文 参考訳(メタデータ) (2023-06-28T22:36:44Z) - 3D Dense Face Alignment with Fused Features by Aggregating CNNs and GCNs [28.7443367565456]
これは、標準畳み込みニューラルネットワーク(CNN)とグラフ畳み込みネットワーク(GCN)をシームレスに結合することで達成される。
CNNとGCNの異なる層やステージにまたがる特徴を反復的に融合させることで,我々のアプローチは高密度な顔アライメントと3次元顔再構成を同時に実現することができる。
いくつかの挑戦的なデータセットの実験により、我々の手法は2次元および3次元の顔アライメントタスクにおける最先端のアプローチよりも優れていることが示された。
論文 参考訳(メタデータ) (2022-03-09T11:07:10Z) - Monocular Road Planar Parallax Estimation [25.36368935789501]
乾燥可能な表面および周囲環境の3次元構造を推定することは、補助的かつ自律的な運転にとって重要な課題である。
単眼画像からの3Dセンシングのための新しいディープニューラルネットワークであるRoad Planar Parallax Attention Network (RPANet)を提案する。
RPANetは、路面のホモグラフィに整列した一対の画像を入力として取り、3D再構成のための$gamma$mapを出力する。
論文 参考訳(メタデータ) (2021-11-22T10:03:41Z) - Cylindrical and Asymmetrical 3D Convolution Networks for LiDAR-based
Perception [122.53774221136193]
運転時のLiDARに基づく認識のための最先端の手法は、しばしば点雲を2D空間に投影し、2D畳み込みによって処理する。
自然な対策として、3Dボクセル化と3D畳み込みネットワークを利用する方法がある。
本研究では,3次元幾何学的パターンを探索するために,円筒状分割と非対称な3次元畳み込みネットワークを設計する,屋外LiDARセグメンテーションのための新しいフレームワークを提案する。
論文 参考訳(メタデータ) (2021-09-12T06:25:11Z) - Progressive Coordinate Transforms for Monocular 3D Object Detection [52.00071336733109]
本稿では,学習座標表現を容易にするために,PCT(Em Progressive Coordinate Transforms)と呼ばれる,新しい軽量なアプローチを提案する。
本稿では,学習座標表現を容易にするために,PCT(Em Progressive Coordinate Transforms)と呼ばれる,新しい軽量なアプローチを提案する。
論文 参考訳(メタデータ) (2021-08-12T15:22:33Z) - Learning Geometry-Disentangled Representation for Complementary
Understanding of 3D Object Point Cloud [50.56461318879761]
3次元画像処理のためのGDANet(Geometry-Disentangled Attention Network)を提案する。
GDANetは、点雲を3Dオブジェクトの輪郭と平らな部分に切り離し、それぞれ鋭い変化成分と穏やかな変化成分で表される。
3Dオブジェクトの分類とセグメンテーションベンチマークの実験は、GDANetがより少ないパラメータで最先端の処理を実現していることを示している。
論文 参考訳(メタデータ) (2020-12-20T13:35:00Z) - ParaNet: Deep Regular Representation for 3D Point Clouds [62.81379889095186]
ParaNetは、3Dポイントクラウドを表現するための新しいエンドツーエンドのディープラーニングフレームワークである。
不規則な3D点雲を通常の2Dカラー画像に変換する。
多視点投影とボキセル化に基づく従来の正規表現法とは異なり、提案した表現は微分可能で可逆である。
論文 参考訳(メタデータ) (2020-12-05T13:19:55Z) - Cylindrical and Asymmetrical 3D Convolution Networks for LiDAR
Segmentation [81.02742110604161]
大規模運転シーンのLiDARセグメンテーションのための最先端の手法は、しばしば点雲を2次元空間に投影し、2D畳み込みによって処理する。
そこで我々は,3次元幾何学的パタンを探索するために,円筒分割と非対称な3次元畳み込みネットワークを設計する,屋外LiDARセグメンテーションのための新しいフレームワークを提案する。
提案手法はセマンティックKITTIのリーダーボードにおいて第1位を獲得し,既存のnuScenesの手法を約4%のマージンで上回っている。
論文 参考訳(メタデータ) (2020-11-19T18:53:11Z) - 3D-LaneNet+: Anchor Free Lane Detection using a Semi-Local
Representation [6.296104145657063]
3D-LaneNet+はカメラベースで3Dレーンをアンカーする手法である。
我々は最近提案された3D-LaneNetに従い、それを拡張して、事前にサポートされていないレーントポロジーの検出を可能にした。
合成データと実世界データの両方を用いて3D-LaneNet+の有効性を実証する。
論文 参考訳(メタデータ) (2020-11-01T11:07:13Z) - Monocular 3D Detection with Geometric Constraints Embedding and
Semi-supervised Training [3.8073142980733]
我々は,KM3D-Netと呼ばれる,RGB画像のみを用いたモノクル3Dオブジェクト検出のための新しいフレームワークを提案する。
我々は、対象のキーポイント、次元、方向を予測するための完全な畳み込みモデルを設計し、これらの推定を視点幾何学的制約と組み合わせて位置属性を計算する。
論文 参考訳(メタデータ) (2020-09-02T00:51:51Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。