論文の概要: PolyLaneNet: Lane Estimation via Deep Polynomial Regression
- arxiv url: http://arxiv.org/abs/2004.10924v2
- Date: Tue, 14 Jul 2020 17:02:54 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-10 09:48:50.212468
- Title: PolyLaneNet: Lane Estimation via Deep Polynomial Regression
- Title(参考訳): PolyLaneNet: 深い多項式回帰によるレーン推定
- Authors: Lucas Tabelini, Rodrigo Berriel, Thiago M. Paix\~ao, Claudine Badue,
Alberto F. De Souza and Thiago Oliveira-Santos
- Abstract要約: 車両に搭載された前方カメラの画像を用いた車線検出手法を提案する。
提案手法はTuSimpleデータセットの既存の最先端手法と競合することが示されている。
ソースコードとトレーニングされたモデルを提供して、他の人がこの論文に示したすべての結果を再現できるようにします。
- 参考スコア(独自算出の注目度): 9.574421369309949
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: One of the main factors that contributed to the large advances in autonomous
driving is the advent of deep learning. For safer self-driving vehicles, one of
the problems that has yet to be solved completely is lane detection. Since
methods for this task have to work in real-time (+30 FPS), they not only have
to be effective (i.e., have high accuracy) but they also have to be efficient
(i.e., fast). In this work, we present a novel method for lane detection that
uses as input an image from a forward-looking camera mounted in the vehicle and
outputs polynomials representing each lane marking in the image, via deep
polynomial regression. The proposed method is shown to be competitive with
existing state-of-the-art methods in the TuSimple dataset while maintaining its
efficiency (115 FPS). Additionally, extensive qualitative results on two
additional public datasets are presented, alongside with limitations in the
evaluation metrics used by recent works for lane detection. Finally, we provide
source code and trained models that allow others to replicate all the results
shown in this paper, which is surprisingly rare in state-of-the-art lane
detection methods. The full source code and pretrained models are available at
https://github.com/lucastabelini/PolyLaneNet.
- Abstract(参考訳): 自動運転の大きな進歩に貢献した主な要因の1つは、ディープラーニングの出現である。
安全な自動運転車にとって、まだ完全に解決されていない問題の1つは車線検出だ。
このタスクのメソッドはリアルタイム(+30fps)で動作する必要があるため、効果的(すなわち高い精度)でなければならないだけでなく、効率的(すなわち高速)でなければならない。
本研究では,車両に搭載された前方カメラからのイメージを入力として用いて,画像中の各レーンマーキングを表す多項式を深い多項式回帰により出力するレーン検出手法を提案する。
提案手法は,tusimpleデータセットの効率(115fps)を維持しつつ,既存の最先端手法と競合することが示されている。
さらに、さらに2つの公開データセットに関する広範な質的結果と、近年のレーン検出で使用された評価指標の制限が提示されている。
最後に、私たちはソースコードとトレーニングされたモデルを提供して、他の人が本論文で示したすべての結果を再現できるようにします。
ソースコードと事前訓練済みのモデルはhttps://github.com/lucastabelini/PolyLaneNet.comで入手できる。
関連論文リスト
- ENet-21: An Optimized light CNN Structure for Lane Detection [1.4542411354617986]
本研究では,車線検出問題に対する最適構造について検討する。
現代の車両の運転支援機能には有望なソリューションを提供する。
TuSimpleデータセットの実験は提案手法の有効性を支持する。
論文 参考訳(メタデータ) (2024-03-28T19:07:26Z) - Building Lane-Level Maps from Aerial Images [9.185929396989083]
レーン検出のために構築された大規模空中画像データセットを初めて紹介する。
我々はAerialLaneNetと呼ばれる空中画像からベースライン深層学習車線検出手法を開発した。
提案手法は,新たなデータセットの最先端手法と比較して,大幅な改善を実現している。
論文 参考訳(メタデータ) (2023-12-20T21:58:45Z) - Unsupervised Domain Adaptation for Self-Driving from Past Traversal
Features [69.47588461101925]
本研究では,新しい運転環境に3次元物体検出器を適応させる手法を提案する。
提案手法は,空間的量子化履歴特徴を用いたLiDARに基づく検出モデルを強化する。
実世界のデータセットの実験では、大幅な改善が示されている。
論文 参考訳(メタデータ) (2023-09-21T15:00:31Z) - Decoupling the Curve Modeling and Pavement Regression for Lane Detection [67.22629246312283]
曲線に基づく車線表現は多くの車線検出法で一般的な手法である。
本稿では,曲線モデルと地上高さ回帰という2つの部分に分解することで,車線検出タスクに対する新しいアプローチを提案する。
論文 参考訳(メタデータ) (2023-09-19T11:24:14Z) - Prior Based Online Lane Graph Extraction from Single Onboard Camera
Image [133.68032636906133]
単眼カメラ画像からレーングラフをオンラインに推定する。
前者は、トランスフォーマーベースのWasserstein Autoencoderを通じてデータセットから抽出される。
オートエンコーダは、最初のレーングラフ推定を強化するために使用される。
論文 参考訳(メタデータ) (2023-07-25T08:58:26Z) - Online Lane Graph Extraction from Onboard Video [133.68032636906133]
オンボードカメラからの映像ストリームを、周囲のレーングラフのオンライン抽出に使用しています。
入力が1つの画像ではなくビデオを使うことは、異なるタイムステップからの情報を組み合わせることのメリットと課題の両方をもたらす。
提案手法の1つのモデルでは、1つを含む任意の数の画像を処理し、正確なレーングラフを生成することができる。
論文 参考訳(メタデータ) (2023-04-03T12:36:39Z) - RCLane: Relay Chain Prediction for Lane Detection [76.62424079494285]
本稿では,リレーチェーン予測に基づく車線検出手法を提案する。
当社の戦略では,TuSimple,CULane,CurveLanes,LLAMASの4つの主要なベンチマーク上で,最先端の新たなベンチマークを確立することが可能です。
論文 参考訳(メタデータ) (2022-07-19T16:48:39Z) - Lane Detection with Versatile AtrousFormer and Local Semantic Guidance [92.83267435275802]
車線検出は自動運転における中核機能の一つである。
既存のほとんどの手法はCNNベースの手法に頼っている。
本稿では,この問題を解決するためにAtrous Transformer (AtrousFormer)を提案する。
論文 参考訳(メタデータ) (2022-03-08T13:25:35Z) - RONELDv2: A faster, improved lane tracking method [1.3965477771846408]
車線検出は、自動運転車や車線出発警報システムにおいて、制御システムの不可欠な部分である。
本稿では,改良された軽量車線検出手法 RONELDv2を提案する。
提案した改良モデルを用いた実験では、異なるデータセットとディープラーニングモデル間でレーン検出精度が一貫した向上を示した。
論文 参考訳(メタデータ) (2022-02-26T13:12:09Z) - SUPER: A Novel Lane Detection System [26.417172945374364]
本研究では,Scene Understanding Physics-Enhanced Real-time (SUPER)アルゴリズムと呼ばれるリアルタイムレーン検出システムを提案する。
我々は、Cityscapes、Vistas、Apolloの異種データを用いて提案システムを訓練し、4つの完全に独立したデータセットのパフォーマンスを評価する。
予備試験の結果,Mobileyeと比較して実車線検出性能は有望であった。
論文 参考訳(メタデータ) (2020-05-14T21:40:39Z) - Map-Enhanced Ego-Lane Detection in the Missing Feature Scenarios [26.016292792373815]
本稿では,検出アルゴリズムの性能向上に優れた,デジタル地図に含まれる事前知識を活用する。
このようにして、路面形状と実車線の位置誤差を除去するためには、少数の車線特徴しか必要としない。
実験の結果,提案手法は様々なシナリオに適用可能であり,20Hzの周波数でリアルタイムに動作可能であることがわかった。
論文 参考訳(メタデータ) (2020-04-02T16:06:48Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。