論文の概要: End-to-end Lane Shape Prediction with Transformers
- arxiv url: http://arxiv.org/abs/2011.04233v2
- Date: Sat, 28 Nov 2020 10:55:44 GMT
- ステータス: 処理完了
- システム内更新日: 2022-09-28 00:18:03.780064
- Title: End-to-end Lane Shape Prediction with Transformers
- Title(参考訳): 変圧器を用いた終端車線形状予測
- Authors: Ruijin Liu, Zejian Yuan, Tie Liu, Zhiliang Xiong
- Abstract要約: 車線検出は、車両の車線離脱警告と適応クルーズ制御に広く用いられている。
レーン形状モデルのパラメータを直接出力するエンドツーエンド手法を提案する。
提案手法はTuSimpleベンチマークで検証され,最も軽量なモデルサイズと高速な速度で最先端の精度を示す。
- 参考スコア(独自算出の注目度): 13.103463647059634
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Lane detection, the process of identifying lane markings as approximated
curves, is widely used for lane departure warning and adaptive cruise control
in autonomous vehicles. The popular pipeline that solves it in two steps --
feature extraction plus post-processing, while useful, is too inefficient and
flawed in learning the global context and lanes' long and thin structures. To
tackle these issues, we propose an end-to-end method that directly outputs
parameters of a lane shape model, using a network built with a transformer to
learn richer structures and context. The lane shape model is formulated based
on road structures and camera pose, providing physical interpretation for
parameters of network output. The transformer models non-local interactions
with a self-attention mechanism to capture slender structures and global
context. The proposed method is validated on the TuSimple benchmark and shows
state-of-the-art accuracy with the most lightweight model size and fastest
speed. Additionally, our method shows excellent adaptability to a challenging
self-collected lane detection dataset, showing its powerful deployment
potential in real applications. Codes are available at
https://github.com/liuruijin17/LSTR.
- Abstract(参考訳): レーン検出は、近似曲線としてレーンマーキングを識別するプロセスであり、自動運転車のレーン離脱警告や適応クルーズ制御に広く使われている。
機能抽出と後処理という2つのステップで解決する一般的なパイプラインは、効率的すぎる上に、グローバルなコンテキストやレーンの長くて薄い構造を学ぶには欠陥がある。
これらの問題に対処するために、トランスを用いたネットワークを用いてレーン形状モデルのパラメータを直接出力し、よりリッチな構造とコンテキストを学習するエンド・ツー・エンド手法を提案する。
レーン形状モデルは道路構造とカメラポーズに基づいて定式化され、ネットワーク出力のパラメータの物理的解釈を提供する。
トランスは非局所的な相互作用と自己認識機構をモデル化し、細い構造とグローバルコンテキストをキャプチャする。
提案手法はTuSimpleベンチマークで検証され,最も軽量なモデルサイズと高速な速度で最先端の精度を示す。
さらに,本手法は,挑戦的な自己収集レーン検出データセットに優れた適応性を示し,実アプリケーションにおける強力な展開可能性を示す。
コードはhttps://github.com/liuruijin17/lstrで入手できる。
関連論文リスト
- Homography Guided Temporal Fusion for Road Line and Marking Segmentation [73.47092021519245]
道路線やマーキングは、移動車両、影、グレアの存在下でしばしば閉鎖される。
本稿では,映像フレームを補足的に利用するHomography Guided Fusion (HomoFusion) モジュールを提案する。
カメラ固有のデータと地上平面の仮定をクロスフレーム対応に利用することにより,高速・高精度性能が向上した軽量ネットワークの実現が期待できることを示す。
論文 参考訳(メタデータ) (2024-04-11T10:26:40Z) - LDTR: Transformer-based Lane Detection with Anchor-chain Representation [11.184960972042406]
限定的あるいは非視覚的な車線検出シナリオは、自動走行において依然として困難で不可欠である。
これらの問題に対処するためのトランスモデルであるLDTRを提案する。
実験により、LDTRはよく知られたデータセット上で最先端の性能を達成することが示された。
論文 参考訳(メタデータ) (2024-03-21T12:29:26Z) - Sketch and Refine: Towards Fast and Accurate Lane Detection [69.63287721343907]
レーン検出は、現実世界のシナリオの複雑さのため、困難なタスクである。
提案ベースであれキーポイントベースであれ,既存のアプローチでは,車線を効果的かつ効率的に表現することができない。
本稿では,キーポイント法と提案法の両方のメリットを活かした"Sketch-and-Refine"パラダイムを提案する。
実験の結果、我々のSRLaneは高速(278 FPS)で走ることができ、F1スコアは78.9%であることがわかった。
論文 参考訳(メタデータ) (2024-01-26T09:28:14Z) - Decoupling the Curve Modeling and Pavement Regression for Lane Detection [67.22629246312283]
曲線に基づく車線表現は多くの車線検出法で一般的な手法である。
本稿では,曲線モデルと地上高さ回帰という2つの部分に分解することで,車線検出タスクに対する新しいアプローチを提案する。
論文 参考訳(メタデータ) (2023-09-19T11:24:14Z) - HoughLaneNet: Lane Detection with Deep Hough Transform and Dynamic
Convolution [8.97991745734826]
レーンは狭く、断片化され、しばしば交通量が多いために、検出の困難を生じさせる。
画像中のすべての車線特徴をHoughパラメータ空間に組み合わせた階層的Deep Hough Transform (DHT) 手法を提案する。
提案するネットワーク構造は,重閉塞あるいは摩耗された車線画像の検出性能の向上を実証する。
論文 参考訳(メタデータ) (2023-07-07T10:08:29Z) - BSNet: Lane Detection via Draw B-spline Curves Nearby [21.40607319558899]
曲線に基づく車線検出手法を,車線表現のグローバル性と局所性の観点から再検討する。
我々は,グローバルな特徴とローカルな特徴の獲得を確実にするために,シンプルで効率的なネットワークBSNetを設計する。
提案手法は,Tusimple,CULane,LLAMASデータセット上での最先端性能を実現する。
論文 参考訳(メタデータ) (2023-01-17T14:25:40Z) - Laneformer: Object-aware Row-Column Transformers for Lane Detection [96.62919884511287]
Laneformerは、自動運転における車線検出に適したトランスフォーマーベースのアーキテクチャである。
様々な視覚タスクにおけるトランスフォーマーエンコーダ・デコーダアーキテクチャの最近の進歩に触発されて、我々は新しいエンドツーエンドのLaneformerアーキテクチャの設計を進める。
論文 参考訳(メタデータ) (2022-03-18T10:14:35Z) - Lane Detection with Versatile AtrousFormer and Local Semantic Guidance [92.83267435275802]
車線検出は自動運転における中核機能の一つである。
既存のほとんどの手法はCNNベースの手法に頼っている。
本稿では,この問題を解決するためにAtrous Transformer (AtrousFormer)を提案する。
論文 参考訳(メタデータ) (2022-03-08T13:25:35Z) - Rethinking Efficient Lane Detection via Curve Modeling [37.45243848960598]
提案手法は,LLAMASベンチマークにおける最先端性能を実現する。
また、TuSimpleとCUデータセットに対して、低レイテンシ (> 150 FPS) と小さなモデルサイズ (10M) の両方を維持しながら、良好な精度を実現している。
論文 参考訳(メタデータ) (2022-03-04T17:00:33Z) - CurveLane-NAS: Unifying Lane-Sensitive Architecture Search and Adaptive
Point Blending [102.98909328368481]
CurveLane-NASは、レーンに敏感なアーキテクチャ検索フレームワークである。
長距離コヒーレントと正確な短距離曲線情報の両方をキャプチャする。
点ブレンディングによる曲線線予測において、アーキテクチャ探索と後処理の両方を統一する。
論文 参考訳(メタデータ) (2020-07-23T17:23:26Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。