論文の概要: Prediction of Lane Number Using Results From Lane Detection
- arxiv url: http://arxiv.org/abs/2012.02604v1
- Date: Fri, 4 Dec 2020 14:01:00 GMT
- ステータス: 処理完了
- システム内更新日: 2021-05-23 04:31:43.802054
- Title: Prediction of Lane Number Using Results From Lane Detection
- Title(参考訳): レーン検出結果を用いた車線数予測
- Authors: Panumate Chetprayoon, Fumihiko Takahashi, Yusuke Uchida
- Abstract要約: 本稿では,車線数予測のための新しい手法を提案し,車線検出結果と駆動レコーダ画像を組み合わせて車線数を予測する。
実験の結果,提案手法は計算コストを大幅に増大させることなく,優れた結果が得られた。
- 参考スコア(独自算出の注目度): 2.3848738964230023
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The lane number that the vehicle is traveling in is a key factor in
intelligent vehicle fields. Many lane detection algorithms were proposed and if
we can perfectly detect the lanes, we can directly calculate the lane number
from the lane detection results. However, in fact, lane detection algorithms
sometimes underperform. Therefore, we propose a new approach for predicting the
lane number, where we combine the drive recorder image with the lane detection
results to predict the lane number. Experiments on our own dataset confirmed
that our approach delivered outstanding results without significantly
increasing computational cost.
- Abstract(参考訳): 車両が走行する車線番号は、インテリジェントな車両分野において重要な要素である。
多数の車線検出アルゴリズムが提案され,完全な車線検出が可能であれば,車線検出結果から直接車線数を計算することができる。
しかし、実際にレーン検出アルゴリズムは時に性能が劣る。
そこで本研究では,車線数を予測するために,ドライブレコーダ画像と車線検出結果を組み合わせた新しい車線数予測手法を提案する。
実験の結果,提案手法は計算コストを大幅に増大させることなく,優れた結果が得られた。
関連論文リスト
- Monocular Lane Detection Based on Deep Learning: A Survey [51.19079381823076]
車線検出は自律運転認識システムにおいて重要な役割を果たす。
ディープラーニングアルゴリズムが普及するにつれて、ディープラーニングに基づく単眼車線検出手法が優れた性能を示した。
本稿では, 成熟度の高い2次元車線検出手法と開発途上国の3次元車線検出技術の両方を網羅して, 既存手法の概要を概説する。
論文 参考訳(メタデータ) (2024-11-25T12:09:43Z) - Sketch and Refine: Towards Fast and Accurate Lane Detection [69.63287721343907]
レーン検出は、現実世界のシナリオの複雑さのため、困難なタスクである。
提案ベースであれキーポイントベースであれ,既存のアプローチでは,車線を効果的かつ効率的に表現することができない。
本稿では,キーポイント法と提案法の両方のメリットを活かした"Sketch-and-Refine"パラダイムを提案する。
実験の結果、我々のSRLaneは高速(278 FPS)で走ることができ、F1スコアは78.9%であることがわかった。
論文 参考訳(メタデータ) (2024-01-26T09:28:14Z) - Decoupling the Curve Modeling and Pavement Regression for Lane Detection [67.22629246312283]
曲線に基づく車線表現は多くの車線検出法で一般的な手法である。
本稿では,曲線モデルと地上高さ回帰という2つの部分に分解することで,車線検出タスクに対する新しいアプローチを提案する。
論文 参考訳(メタデータ) (2023-09-19T11:24:14Z) - Prior Based Online Lane Graph Extraction from Single Onboard Camera
Image [133.68032636906133]
単眼カメラ画像からレーングラフをオンラインに推定する。
前者は、トランスフォーマーベースのWasserstein Autoencoderを通じてデータセットから抽出される。
オートエンコーダは、最初のレーングラフ推定を強化するために使用される。
論文 参考訳(メタデータ) (2023-07-25T08:58:26Z) - Multi Lane Detection [12.684545950979187]
車線検出は自動運転の基本モジュールである。
私たちの仕事はCNNのバックボーンDLA-34とAffinity Fieldsをベースにしています。
より効率的な車線検出アルゴリズムを実現するための新しい復号法について検討する。
論文 参考訳(メタデータ) (2022-12-22T08:20:08Z) - RCLane: Relay Chain Prediction for Lane Detection [76.62424079494285]
本稿では,リレーチェーン予測に基づく車線検出手法を提案する。
当社の戦略では,TuSimple,CULane,CurveLanes,LLAMASの4つの主要なベンチマーク上で,最先端の新たなベンチマークを確立することが可能です。
論文 参考訳(メタデータ) (2022-07-19T16:48:39Z) - Eigenlanes: Data-Driven Lane Descriptors for Structurally Diverse Lanes [37.09862617049865]
固有レーン空間における道路車線検出のための新しいアルゴリズムを提案する。
固有レーン(英: Eigenlanes)は、曲線や直線線を含む、構造的に多様なレーンのためのデータ駆動ディスクリプタである。
提案アルゴリズムは、構造的に多様な車線に対する優れた検出性能を提供する。
論文 参考訳(メタデータ) (2022-03-29T07:45:23Z) - Lane Detection with Versatile AtrousFormer and Local Semantic Guidance [92.83267435275802]
車線検出は自動運転における中核機能の一つである。
既存のほとんどの手法はCNNベースの手法に頼っている。
本稿では,この問題を解決するためにAtrous Transformer (AtrousFormer)を提案する。
論文 参考訳(メタデータ) (2022-03-08T13:25:35Z) - RONELDv2: A faster, improved lane tracking method [1.3965477771846408]
車線検出は、自動運転車や車線出発警報システムにおいて、制御システムの不可欠な部分である。
本稿では,改良された軽量車線検出手法 RONELDv2を提案する。
提案した改良モデルを用いた実験では、異なるデータセットとディープラーニングモデル間でレーン検出精度が一貫した向上を示した。
論文 参考訳(メタデータ) (2022-02-26T13:12:09Z) - RONELD: Robust Neural Network Output Enhancement for Active Lane
Detection [1.3965477771846408]
最近の最先端車線検出アルゴリズムは、畳み込みニューラルネットワーク(CNN)を用いてディープラーニングモデルを訓練している。
アクティブレーン検出(RONELD)のための実時間ロバストニューラルネットワーク出力向上手法を提案する。
RONELDの精度は最大2倍に向上した。
論文 参考訳(メタデータ) (2020-10-19T14:22:47Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。