論文の概要: Focus on Local: Detecting Lane Marker from Bottom Up via Key Point
- arxiv url: http://arxiv.org/abs/2105.13680v1
- Date: Fri, 28 May 2021 08:59:14 GMT
- ステータス: 処理完了
- システム内更新日: 2021-05-31 13:37:12.689228
- Title: Focus on Local: Detecting Lane Marker from Bottom Up via Key Point
- Title(参考訳): ローカルにフォーカス:キーポイントによるボトムアップからのレーンマーカーの検出
- Authors: Zhan Qu, Huan Jin, Yang Zhou, Zhen Yang, Wei Zhang
- Abstract要約: 本研究では,局所パターンのモデル化とグローバルな構造予測に焦点をあてた新しいレーンマーカー検出ソリューションFOLOLaneを提案する。
具体的には、CNNは2つの異なる頭部を持つ低複雑局所パターンをモデル化し、第1は鍵点の存在を予測し、第2は局所範囲における鍵点の位置を洗練し、同じレーン線の鍵点を相関させる。
- 参考スコア(独自算出の注目度): 10.617793053931964
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Mainstream lane marker detection methods are implemented by predicting the
overall structure and deriving parametric curves through post-processing.
Complex lane line shapes require high-dimensional output of CNNs to model
global structures, which further increases the demand for model capacity and
training data. In contrast, the locality of a lane marker has finite geometric
variations and spatial coverage. We propose a novel lane marker detection
solution, FOLOLane, that focuses on modeling local patterns and achieving
prediction of global structures in a bottom-up manner. Specifically, the CNN
models lowcomplexity local patterns with two separate heads, the first one
predicts the existence of key points, and the second refines the location of
key points in the local range and correlates key points of the same lane line.
The locality of the task is consistent with the limited FOV of the feature in
CNN, which in turn leads to more stable training and better generalization. In
addition, an efficiency-oriented decoding algorithm was proposed as well as a
greedy one, which achieving 36% runtime gains at the cost of negligible
performance degradation. Both of the two decoders integrated local information
into the global geometry of lane markers. In the absence of a complex network
architecture design, the proposed method greatly outperforms all existing
methods on public datasets while achieving the best state-of-the-art results
and real-time processing simultaneously.
- Abstract(参考訳): メインストリームレーンマーカー検出法は, 全体構造を予測し, 後処理によりパラメトリック曲線を導出することにより実現される。
複雑な車線形状は、大域構造をモデル化するためにCNNの高次元出力を必要とし、モデルキャパシティとトレーニングデータの需要をさらに高める。
対照的に、レーンマーカーの局所性は有限の幾何学的変動と空間的カバレッジを持つ。
本研究では,局所パターンのモデル化とボトムアップによるグローバル構造の予測に焦点をあてた新しいレーンマーカー検出ソリューションであるフォロレーンを提案する。
具体的には、CNNは2つの異なる頭部を持つ低複雑局所パターンをモデル化し、第1は鍵点の存在を予測し、第2は局所範囲における鍵点の位置を洗練し、同じレーン線の鍵点を相関させる。
タスクの局所性は、CNNの機能の限られたFOVと一致しており、それによってより安定したトレーニングとより良い一般化につながる。
さらに、効率性を重視したデコードアルゴリズムが提案され、性能低下を犠牲にして36%のランタイム向上を達成した。
2つのデコーダは、ローカル情報をレーンマーカーのグローバルな形状に統合した。
複雑なネットワークアーキテクチャ設計が欠如しているため,提案手法は公開データセット上の既存の手法をはるかに上回り,最高の最先端結果とリアルタイム処理を実現している。
関連論文リスト
- Flexible 3D Lane Detection by Hierarchical Shape MatchingFlexible 3D Lane Detection by Hierarchical Shape Matching [29.038755629481035]
3次元車線検出は、様々な視覚条件、複雑な類型、厳密な精度要求のため、依然として未解決の問題である。
本稿では,点雲から3次元レーン線を正確に予測するために,エンドツーエンドのフレキシブルかつ階層的なレーン検出器を提案する。
論文 参考訳(メタデータ) (2024-08-13T19:04:23Z) - Double-Shot 3D Shape Measurement with a Dual-Branch Network [14.749887303860717]
我々は、異なる構造光(SL)変調を処理するために、デュアルブランチ畳み込みニューラルネットワーク(CNN)-トランスフォーマーネットワーク(PDCNet)を提案する。
PDCNet内では、Transformerブランチを使用してフリンジイメージのグローバルな認識をキャプチャし、CNNブランチはスペックルイメージのローカル詳細を収集するように設計されている。
提案手法は, 自己生成データセット上で高精度な結果が得られる一方で, フランジオーダーの曖昧さを低減できることを示す。
論文 参考訳(メタデータ) (2024-07-19T10:49:26Z) - Mesh Denoising Transformer [104.5404564075393]
Mesh Denoisingは、入力メッシュからノイズを取り除き、特徴構造を保存することを目的としている。
SurfaceFormerはTransformerベースのメッシュDenoisingフレームワークのパイオニアだ。
局所曲面記述子(Local Surface Descriptor)として知られる新しい表現は、局所幾何学的複雑さをキャプチャする。
Denoising Transformerモジュールは、マルチモーダル情報を受信し、効率的なグローバル機能アグリゲーションを実現する。
論文 参考訳(メタデータ) (2024-05-10T15:27:43Z) - 3D Lane Detection from Front or Surround-View using Joint-Modeling & Matching [27.588395086563978]
本稿では,Bezier曲線と手法を組み合わせた共同モデリング手法を提案する。
また,3次元サラウンドビューレーン検出研究の探索を目的とした新しい3次元空間についても紹介する。
この革新的な手法は、Openlaneデータセットのフロントビュー3Dレーン検出において、新しいベンチマークを確立する。
論文 参考訳(メタデータ) (2024-01-16T01:12:24Z) - DETR Doesn't Need Multi-Scale or Locality Design [69.56292005230185]
本稿では,"プレーン"特性を維持できる改良型DETR検出器を提案する。
特定の局所性制約を伴わずに、単一スケールの機能マップとグローバルなクロスアテンション計算を使用する。
マルチスケールな特徴マップと局所性制約の欠如を補うために,2つの単純な技術が平易な設計において驚くほど効果的であることを示す。
論文 参考訳(メタデータ) (2023-08-03T17:59:04Z) - Global-to-Local Modeling for Video-based 3D Human Pose and Shape
Estimation [53.04781510348416]
フレーム内精度とフレーム間スムーズさにより,映像に基づく3次元人間のポーズと形状推定を評価する。
エンドツーエンドフレームワークGLoT(Global-to-Local Transformer)における長期的・短期的相関のモデル化を構造的に分離することを提案する。
我々のGLoTは、一般的なベンチマーク(3DPW、MPI-INF-3DHP、Human3.6M)において、最も低いモデルパラメータを持つ従来の最先端の手法を上回る。
論文 参考訳(メタデータ) (2023-03-26T14:57:49Z) - Centralized Feature Pyramid for Object Detection [53.501796194901964]
視覚的特徴ピラミッドは、広範囲のアプリケーションにおいて、有効性と効率の両方において、その優位性を示している。
本稿では,オブジェクト検出のためのOLO特徴ピラミッドを提案する。
論文 参考訳(メタデータ) (2022-10-05T08:32:54Z) - Cross-modal Local Shortest Path and Global Enhancement for
Visible-Thermal Person Re-Identification [2.294635424666456]
本稿では,局所的特徴とグローバル的特徴の同時学習に基づく2ストリームネットワークであるCM-LSP-GE(Cross-modal Local Shortest Path and Global Enhancement)モジュールを提案する。
2つの典型的なデータセットの実験結果は、我々のモデルは明らかに最先端の手法よりも優れていることを示している。
論文 参考訳(メタデータ) (2022-06-09T10:27:22Z) - TC-Net: Triple Context Network for Automated Stroke Lesion Segmentation [0.5482532589225552]
本稿では,空間的コンテキスト情報を中心として,新たなネットワークである Triple Context Network (TC-Net) を提案する。
我々のネットワークはオープンデータセットATLASで評価され、最高スコアは0.594、ハウスドルフ距離は27.005mm、平均対称性表面距離は7.137mmである。
論文 参考訳(メタデータ) (2022-02-28T11:12:16Z) - PC-RGNN: Point Cloud Completion and Graph Neural Network for 3D Object
Detection [57.49788100647103]
LiDARベースの3Dオブジェクト検出は、自動運転にとって重要なタスクです。
現在のアプローチでは、遠方および閉ざされた物体の偏りと部分的な点雲に苦しむ。
本稿では,この課題を2つの解決法で解決する新しい二段階アプローチ,pc-rgnnを提案する。
論文 参考訳(メタデータ) (2020-12-18T18:06:43Z) - FedPD: A Federated Learning Framework with Optimal Rates and Adaptivity
to Non-IID Data [59.50904660420082]
フェデレートラーニング(FL)は、分散データから学ぶための一般的なパラダイムになっています。
クラウドに移行することなく、さまざまなデバイスのデータを効果的に活用するために、Federated Averaging(FedAvg)などのアルゴリズムでは、"Computation then aggregate"(CTA)モデルを採用している。
論文 参考訳(メタデータ) (2020-05-22T23:07:42Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。