論文の概要: Road Genome: A Topology Reasoning Benchmark for Scene Understanding in
Autonomous Driving
- arxiv url: http://arxiv.org/abs/2304.10440v1
- Date: Thu, 20 Apr 2023 16:31:22 GMT
- ステータス: 処理完了
- システム内更新日: 2023-04-21 12:26:48.817945
- Title: Road Genome: A Topology Reasoning Benchmark for Scene Understanding in
Autonomous Driving
- Title(参考訳): 道路ゲノム:自律運転におけるシーン理解のためのトポロジー推論ベンチマーク
- Authors: Huijie Wang, Zhenbo Liu, Yang Li, Tianyu Li, Li Chen, Chonghao Sima,
Yuting Wang, Shengyin Jiang, Feng Wen, Hang Xu, Ping Luo, Junchi Yan, Wei
Zhang, Jun Yao, Yu Qiao, Hongyang Li
- Abstract要約: 道路ゲノムは、交通要素と車線間の認識された実体の関係を調査することで、シーン構造を理解することを目的としている。
新しく鋳造されたベンチマークは、様々な現実世界のシナリオからキャプチャされた2000のマルチビュー画像からなる。
3つのサブタスクは、OpenLaneから受け継いだ3Dレーン検出を含むロードゲノムのギストを妥協する。
- 参考スコア(独自算出の注目度): 97.0647133061315
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Understanding the complex traffic environment is crucial for self-driving
vehicles. Existing benchmarks in autonomous driving mainly cast scene
understanding as perception problems, e.g., perceiving lanelines with vanilla
detection or segmentation methods. As such, we argue that the perception
pipeline provides limited information for autonomous vehicles to drive in the
right way, especially without the aid of high-definition (HD) map. For
instance, following the wrong traffic signal at a complicated crossroad would
lead to a catastrophic incident. By introducing Road Genome (OpenLane-V2), we
intend to shift the community's attention and take a step further beyond
perception - to the task of topology reasoning for scene structure. The goal of
Road Genome is to understand the scene structure by investigating the
relationship of perceived entities among traffic elements and lanes. Built on
top of prevailing datasets, the newly minted benchmark comprises 2,000
sequences of multi-view images captured from diverse real-world scenarios. We
annotate data with high-quality manual checks in the loop. Three subtasks
compromise the gist of Road Genome, including the 3D lane detection inherited
from OpenLane. We have/will host Challenges in the upcoming future at
top-tiered venues.
- Abstract(参考訳): 複雑な交通環境を理解することは自動運転車にとって不可欠である。
既存の自動走行のベンチマークでは、主にシーン理解を、例えばバニラ検出やセグメンテーション手法で車線を知覚するといった知覚問題として捉えている。
したがって、認識パイプラインは、特に高精細(HD)マップを使わずに、自動運転車が正しい運転を行うための限られた情報を提供すると論じる。
例えば、複雑な交差点で間違った交通信号に追従すると、壊滅的な事故が起こる。
道路ゲノム(openlane-v2)を導入することで,景観構造のトポロジー推論のタスクに,コミュニティの関心を移し,認識を超えた一歩を踏み出そうとしている。
道路ゲノムの目的は交通要素と車線間の認識された実体の関係を調査することで景観構造を理解することである。
一般的なデータセットの上に構築されたこのベンチマークは、さまざまな現実世界のシナリオからキャプチャされた2000のマルチビューイメージからなる。
ループ内の高品質な手動チェックでデータをアノテートします。
3つのサブタスクは、openlaneから受け継いだ3dレーン検出を含む、道路ゲノムのgistを侵害する。
今後、トップクラスの会場でチャレンジを開催する予定です。
関連論文リスト
- Monocular Lane Detection Based on Deep Learning: A Survey [51.19079381823076]
車線検出は自律運転認識システムにおいて重要な役割を果たす。
ディープラーニングアルゴリズムが普及するにつれて、ディープラーニングに基づく単眼車線検出手法が優れた性能を示した。
本稿では, 成熟度の高い2次元車線検出手法と開発途上国の3次元車線検出技術の両方を網羅して, 既存手法の概要を概説する。
論文 参考訳(メタデータ) (2024-11-25T12:09:43Z) - AIDE: A Vision-Driven Multi-View, Multi-Modal, Multi-Tasking Dataset for
Assistive Driving Perception [26.84439405241999]
本稿では,車内と車外の両方でコンテキスト情報を考察するAssIstive Driving pErceptionデータセット(AIDE)を提案する。
AIDEは3つの特徴を通して総合的なドライバー監視を容易にする。
2つの融合戦略を導入し、効果的なマルチストリーム/モーダル表現の学習に新たな洞察を与える。
論文 参考訳(メタデータ) (2023-07-26T03:12:05Z) - Concretization of Abstract Traffic Scene Specifications Using Metaheuristic Search [1.9307952728103126]
AVのシナリオベースのテストに向けた第一歩として、トラフィックシナリオの初期シーンを減らさなければならない。
本稿では,車両を現実的な道路地図上に配置し,一連の抽象的制約を満たす交通シーンの促進手法を提案する。
提案手法の8つの構成を,最先端のScenicツールの3つのバリエーションと比較するために,現実的な3つの道路地図上で一連の実験を行った。
論文 参考訳(メタデータ) (2023-07-15T15:13:16Z) - Graph-based Topology Reasoning for Driving Scenes [102.35885039110057]
TopoNetは、従来の知覚タスクを超えてトラフィック知識を抽象化できる最初のエンドツーエンドフレームワークである。
TopoNetを,難解なシーン理解ベンチマークOpenLane-V2で評価した。
論文 参考訳(メタデータ) (2023-04-11T15:23:29Z) - Dynamic loss balancing and sequential enhancement for road-safety
assessment and traffic scene classification [0.0]
道路安全検査は、道路インフラに寄与する道路事故死者を減らすのに欠かせない手段である。
最近の研究は、道路安全属性としても知られる、慎重に選択されたリスク要因の観点から、道路安全評価を形式化している。
本稿では,2段階のニューラルネットワークによる認識を自動化することにより,退屈な人的労働への依存を減らすことを提案する。
論文 参考訳(メタデータ) (2022-11-08T11:10:07Z) - JPerceiver: Joint Perception Network for Depth, Pose and Layout
Estimation in Driving Scenes [75.20435924081585]
JPerceiverは、モノクロビデオシーケンスからスケール認識深度とVOとBEVレイアウトを同時に推定することができる。
クロスビュー幾何変換(CGT)を利用して、絶対スケールを道路レイアウトから奥行きとVOに伝播させる。
Argoverse、Nuscenes、KITTIの実験は、上記の3つのタスクの全てにおいて、既存のメソッドよりもJPerceiverの方が優れていることを示している。
論文 参考訳(メタデータ) (2022-07-16T10:33:59Z) - PersFormer: 3D Lane Detection via Perspective Transformer and the
OpenLane Benchmark [109.03773439461615]
PersFormerは、新しいトランスフォーマーベースの空間特徴変換モジュールを備えた、エンドツーエンドのモノクル3Dレーン検出器である。
高品質なアノテーションとシナリオの多様性を備えたOpenLaneと呼ばれる,最初の大規模な3Dレーンデータセットの1つをリリースしました。
論文 参考訳(メタデータ) (2022-03-21T16:12:53Z) - Fine-Grained Vehicle Perception via 3D Part-Guided Visual Data
Augmentation [77.60050239225086]
実画像中の車両に動的部品を付加した3次元自動車モデルによる効果的なトレーニングデータ生成プロセスを提案する。
私達のアプローチは人間の相互作用なしで完全に自動です。
VUS解析用マルチタスクネットワークとVHI解析用マルチストリームネットワークを提案する。
論文 参考訳(メタデータ) (2020-12-15T03:03:38Z) - Extracting the fundamental diagram from aerial footage [6.780998887296333]
効率的な交通監視は,交通ネットワークにおける渋滞対策に不可欠な役割を担っている。
本稿では,ドローンプラットフォームから得られた空中映像から基本図を得るための革新的な手法を考案する。
提案手法は, 車両検出, 車両追跡, 交通状態推定の3段階からなる。
論文 参考訳(メタデータ) (2020-07-07T06:34:50Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。