論文の概要: MapVision: CVPR 2024 Autonomous Grand Challenge Mapless Driving Tech Report
- arxiv url: http://arxiv.org/abs/2406.10125v1
- Date: Fri, 14 Jun 2024 15:31:45 GMT
- ステータス: 処理完了
- システム内更新日: 2024-06-17 13:06:25.425611
- Title: MapVision: CVPR 2024 Autonomous Grand Challenge Mapless Driving Tech Report
- Title(参考訳): MapVision:CVPR 2024 自律型グランドチャレンジマップレス運転技術レポート
- Authors: Zhongyu Yang, Mai Liu, Jinluo Xie, Yueming Zhang, Chen Shen, Wei Shao, Jichao Jiao, Tengfei Xing, Runbo Hu, Pengfei Xu,
- Abstract要約: 既存のアルゴリズムのほとんどは、多視点画像からBirdのアイビュー機能を構築していることがわかった。
これらのアルゴリズムは、画像の主被写体が隠されているとき、道路の端で性能が悪く、苦労している。
このコンペティションでは,マルチパースペクティブイメージを入力として使用するだけでなく,この問題に対処するためにSDマップも組み込んだ。
- 参考スコア(独自算出の注目度): 6.598847563245353
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Autonomous driving without high-definition (HD) maps demands a higher level of active scene understanding. In this competition, the organizers provided the multi-perspective camera images and standard-definition (SD) maps to explore the boundaries of scene reasoning capabilities. We found that most existing algorithms construct Bird's Eye View (BEV) features from these multi-perspective images and use multi-task heads to delineate road centerlines, boundary lines, pedestrian crossings, and other areas. However, these algorithms perform poorly at the far end of roads and struggle when the primary subject in the image is occluded. Therefore, in this competition, we not only used multi-perspective images as input but also incorporated SD maps to address this issue. We employed map encoder pre-training to enhance the network's geometric encoding capabilities and utilized YOLOX to improve traffic element detection precision. Additionally, for area detection, we innovatively introduced LDTR and auxiliary tasks to achieve higher precision. As a result, our final OLUS score is 0.58.
- Abstract(参考訳): ハイデフィニションマップ(HDマップ)のない自律走行には、より高度なアクティブなシーン理解が必要である。
このコンペティションにおいて、主催者はシーン推論能力の境界を探索するために、多視点カメラ画像と標準定義(SD)マップを提供した。
既存のアルゴリズムのほとんどは,これらの多視点画像からBird's Eye View (BEV) 機能を構築し,道路中心線,境界線,歩行者横断路,その他の領域にマルチタスクヘッドを用いた。
しかし、これらのアルゴリズムは、画像の主被写体が隠されているとき、道路の遠端で性能が悪く、苦労している。
そこで,本コンペでは,マルチパースペクティブイメージを入力として使用するだけでなく,この問題に対処するためにSDマップも組み込んだ。
ネットワークの幾何符号化能力を高めるためにマップエンコーダを事前訓練し、交通要素検出精度を向上させるためにYOLOXを使用した。
さらに,地域検出のために,LDTRと補助タスクを導入し,精度を向上した。
その結果,最終OLUSスコアは0.58となった。
関連論文リスト
- TopoSD: Topology-Enhanced Lane Segment Perception with SDMap Prior [70.84644266024571]
我々は、標準定義地図(SDMaps)を見るために知覚モデルを訓練することを提案する。
我々はSDMap要素をニューラル空間マップ表現やインスタンストークンにエンコードし、先行情報のような補完的な特徴を組み込む。
レーンセグメント表現フレームワークに基づいて、モデルはレーン、中心線、およびそれらのトポロジを同時に予測する。
論文 参考訳(メタデータ) (2024-11-22T06:13:42Z) - DeepAerialMapper: Deep Learning-based Semi-automatic HD Map Creation for Highly Automated Vehicles [0.0]
高解像度空中画像からHDマップを作成するための半自動手法を提案する。
提案手法では, ニューラルネットワークを訓練して, 空中画像をHDマップに関連するクラスに意味的に分割する。
マップをLanelet2フォーマットにエクスポートすることで、さまざまなユースケースを簡単に拡張できる。
論文 参考訳(メタデータ) (2024-10-01T15:05:05Z) - Driving with Prior Maps: Unified Vector Prior Encoding for Autonomous Vehicle Mapping [18.97422977086127]
高精細マップ(HDマップ)は、自動運転車の正確なナビゲーションと意思決定に不可欠である。
オンボードセンサーを用いたHDマップのオンライン構築が,有望なソリューションとして浮上している。
本稿では,事前マップのパワーを活用して,これらの制約に対処するPresidedDriveフレームワークを提案する。
論文 参考訳(メタデータ) (2024-09-09T06:17:46Z) - HD Maps are Lane Detection Generalizers: A Novel Generative Framework for Single-Source Domain Generalization [12.45819412968954]
単一ソース領域一般化のためのHDマップを用いた新しい生成フレームワークを提案する。
我々のフレームワークは、+3.01%pの精度で、ドメイン適応モデルMLDAよりも優れていることを検証します。
論文 参考訳(メタデータ) (2023-11-28T08:15:27Z) - SNAP: Self-Supervised Neural Maps for Visual Positioning and Semantic
Understanding [57.108301842535894]
我々は、地上と頭上の画像からリッチなニューラル2Dマップを学習するディープネットワークSNAPを紹介する。
我々は、異なる入力から推定されるニューラルマップの整列をトレーニングし、何千万ものストリートビュー画像のカメラポーズでのみ監視する。
SNAPは、従来の手法の範囲を超えて、挑戦的な画像クエリの場所を解決できる。
論文 参考訳(メタデータ) (2023-06-08T17:54:47Z) - Scalable and Real-time Multi-Camera Vehicle Detection,
Re-Identification, and Tracking [58.95210121654722]
理想化されたビデオストリームやキュレートされたビデオストリームの代わりに,リアルタイムで低解像度のCCTVを処理する,リアルタイムな都市規模のマルチカメラ車両追跡システムを提案する。
私たちの手法は、公共のリーダーボードで上位5人のパフォーマーにランク付けされています。
論文 参考訳(メタデータ) (2022-04-15T12:47:01Z) - SurroundDepth: Entangling Surrounding Views for Self-Supervised
Multi-Camera Depth Estimation [101.55622133406446]
本研究では,複数の周囲からの情報を組み込んだSurroundDepth法を提案し,カメラ間の深度マップの予測を行う。
具体的には、周囲のすべてのビューを処理し、複数のビューから情報を効果的に融合するクロスビュー変換器を提案する。
実験において,本手法は,挑戦的なマルチカメラ深度推定データセット上での最先端性能を実現する。
論文 参考訳(メタデータ) (2022-04-07T17:58:47Z) - csBoundary: City-scale Road-boundary Detection in Aerial Images for
High-definition Maps [10.082536828708779]
都市規模での道路境界の自動検出のためのcsBoundaryを提案する。
筆者らのネットワークは航空画像パッチを入力として,この画像から直接連続的な道路境界グラフを推定する。
私たちのcsBoundaryは、公開ベンチマークデータセットで評価され、比較されます。
論文 参考訳(メタデータ) (2021-11-11T02:04:36Z) - Structured Bird's-Eye-View Traffic Scene Understanding from Onboard
Images [128.881857704338]
本研究では,BEV座標における局所道路網を表す有向グラフを,単眼カメラ画像から抽出する問題について検討する。
提案手法は,BEV平面上の動的物体を検出するために拡張可能であることを示す。
我々は、強力なベースラインに対するアプローチを検証するとともに、ネットワークが優れたパフォーマンスを達成することを示す。
論文 参考訳(メタデータ) (2021-10-05T12:40:33Z) - DAGMapper: Learning to Map by Discovering Lane Topology [84.12949740822117]
我々は、分岐とマージによるトポロジー変化を含む多くのレーンを持つ複雑な高速道路のレーン境界を描くことに集中する。
グラフのノードがレーン境界の局所領域の幾何学的および位相的特性を符号化する有向非巡回グラフィカルモデル(DAG)における推論として問題を定式化する。
2つの異なる州における2つの幹線道路における我々のアプローチの有効性を示し、高い精度とリコールと89%の正しいトポロジーを示す。
論文 参考訳(メタデータ) (2020-12-22T21:58:57Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。