論文の概要: Semi-supervised lane detection with Deep Hough Transform
- arxiv url: http://arxiv.org/abs/2106.05094v1
- Date: Wed, 9 Jun 2021 14:17:29 GMT
- ステータス: 処理完了
- システム内更新日: 2021-06-10 22:52:43.427973
- Title: Semi-supervised lane detection with Deep Hough Transform
- Title(参考訳): ディープハフ変換を用いた半教師付きレーン検出
- Authors: Yancong Lin, Silvia-Laura Pintea, Jan van Gemert
- Abstract要約: 本稿では,ハフ空間におけるレーンの幾何学的知識を利用した新しい損失関数を提案する。
レーンを別々のチャネルに分割することで、単純な大域的な最大プールによって各レーンをローカライズすることができる。
提案したHough Transform Lossは,大量の未ラベル画像から学習することで,性能を著しく向上することを示す。
- 参考スコア(独自算出の注目度): 9.904746542801838
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Current work on lane detection relies on large manually annotated datasets.
We reduce the dependency on annotations by leveraging massive cheaply available
unlabelled data. We propose a novel loss function exploiting geometric
knowledge of lanes in Hough space, where a lane can be identified as a local
maximum. By splitting lanes into separate channels, we can localize each lane
via simple global max-pooling. The location of the maximum encodes the layout
of a lane, while the intensity indicates the the probability of a lane being
present. Maximizing the log-probability of the maximal bins helps neural
networks find lanes without labels. On the CULane and TuSimple datasets, we
show that the proposed Hough Transform loss improves performance significantly
by learning from large amounts of unlabelled images.
- Abstract(参考訳): レーン検出に関する現在の研究は、大規模な手動注釈付きデータセットに依存している。
私たちは、巨大な安価で手に入らないデータを活用することでアノテーションへの依存を減らす。
本研究では,ハフ空間におけるレーンの幾何学的知識を利用した新たな損失関数を提案する。
レーンを別々のチャネルに分割することで、単純なグローバルマックスプールを通じて各レーンをローカライズすることができます。
最大値の位置はレーンのレイアウトを符号化し、強度はレーンが存在する確率を示す。
最大ビンの対数確率の最大化は、ニューラルネットワークがラベルなしで車線を見つけるのに役立つ。
CULane と TuSimple のデータセットから,提案したHough Transform の損失は,大量の未ラベル画像から学習することで,性能を著しく向上することを示す。
関連論文リスト
- Sketch and Refine: Towards Fast and Accurate Lane Detection [69.63287721343907]
レーン検出は、現実世界のシナリオの複雑さのため、困難なタスクである。
提案ベースであれキーポイントベースであれ,既存のアプローチでは,車線を効果的かつ効率的に表現することができない。
本稿では,キーポイント法と提案法の両方のメリットを活かした"Sketch-and-Refine"パラダイムを提案する。
実験の結果、我々のSRLaneは高速(278 FPS)で走ることができ、F1スコアは78.9%であることがわかった。
論文 参考訳(メタデータ) (2024-01-26T09:28:14Z) - Decoupling the Curve Modeling and Pavement Regression for Lane Detection [67.22629246312283]
曲線に基づく車線表現は多くの車線検出法で一般的な手法である。
本稿では,曲線モデルと地上高さ回帰という2つの部分に分解することで,車線検出タスクに対する新しいアプローチを提案する。
論文 参考訳(メタデータ) (2023-09-19T11:24:14Z) - ADNet: Lane Shape Prediction via Anchor Decomposition [19.233248472182854]
我々はアンカーベースレーン検出手法の限界を再考する。
アンカーの非フレキシビリティを克服するため、出発点とその関連した方向の熱マップを学習するためにそれらを分解する。
アンカーの品質を高めるため,特徴ピラミッドネットワーク(FPN)のためのLKA(Large Kernel Attention)を導入する。
論文 参考訳(メタデータ) (2023-08-21T05:42:13Z) - Repainting and Imitating Learning for Lane Detection [52.5220065495956]
現行の車線検出手法は、重い影による視認性車線問題に苦慮している。
本稿では,教師と学生のペアを含む新しいリペイント・イミメーティング学習フレームワークを提案する。
提案手法は,推定中に余分な時間的コストを伴わず,様々な最先端車線検出ネットワークでプラグアンドプレイが可能となる。
論文 参考訳(メタデータ) (2022-10-11T02:26:39Z) - RCLane: Relay Chain Prediction for Lane Detection [76.62424079494285]
本稿では,リレーチェーン予測に基づく車線検出手法を提案する。
当社の戦略では,TuSimple,CULane,CurveLanes,LLAMASの4つの主要なベンチマーク上で,最先端の新たなベンチマークを確立することが可能です。
論文 参考訳(メタデータ) (2022-07-19T16:48:39Z) - A Keypoint-based Global Association Network for Lane Detection [47.93323407661912]
レーン検出は、レーンラインの複雑なトポロジー形状を予測し、異なる種類のレーンを同時に区別する必要がある、困難なタスクである。
新しい視点からレーン検出問題を定式化するためのグローバルアソシエーションネットワーク(GANet)を提案する。
F1スコアはCULaneが79.63%、Tusimpleデータセットが97.71%、高いFPSが97.71%である。
論文 参考訳(メタデータ) (2022-04-15T05:24:04Z) - CLRNet: Cross Layer Refinement Network for Lane Detection [36.10035201796672]
レーン検出における高レベル特徴と低レベル特徴の両面をフル活用することを目的としたCross Layer Refinement Network(CLRNet)を提案する。
CLRNetはまず、ハイレベルなセマンティック機能を備えたレーンを検出し、低レベルな機能に基づいて改善を行う。
新たなネットワーク設計に加えて,Line IoU損失(Line IoU損失)を導入し,車線全体を単位として局所化精度を向上させる。
論文 参考訳(メタデータ) (2022-03-19T16:11:35Z) - Lane Detection with Versatile AtrousFormer and Local Semantic Guidance [92.83267435275802]
車線検出は自動運転における中核機能の一つである。
既存のほとんどの手法はCNNベースの手法に頼っている。
本稿では,この問題を解決するためにAtrous Transformer (AtrousFormer)を提案する。
論文 参考訳(メタデータ) (2022-03-08T13:25:35Z) - RESA: Recurrent Feature-Shift Aggregator for Lane Detection [32.246537653680484]
通常のCNNを用いた予備的特徴抽出の後,車線特徴量を高めるために,Recurrent Feature-Shift Aggregator (RESA) という新しいモジュールを提案する。
RESAは、スライスされた特徴写像を集約することで、外観の弱い難解なシナリオでレーンを正確に予測することができる。
提案手法は,2つの人気のある車線検出ベンチマーク(CULaneとTusimple)の最先端結果を実現する。
論文 参考訳(メタデータ) (2020-08-31T16:37:30Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。