論文の概要: Deep Perspective Transformation Based Vehicle Localization on Bird's Eye
View
- arxiv url: http://arxiv.org/abs/2311.06796v1
- Date: Sun, 12 Nov 2023 10:16:42 GMT
- ステータス: 処理完了
- システム内更新日: 2023-11-14 16:56:40.016538
- Title: Deep Perspective Transformation Based Vehicle Localization on Bird's Eye
View
- Title(参考訳): 鳥の目視に基づく深層視差変換に基づく車両位置推定
- Authors: Abtin Mahyar, Hossein Motamednia, Dara Rahmati
- Abstract要約: 従来のアプローチでは、環境をシミュレートする複数のセンサーのインストールに依存していた。
シーンのトップダウン表現を生成することで、代替ソリューションを提案する。
本稿では,RGB画像の視点ビューを,周囲の車両を分割した鳥眼ビューマップに変換するアーキテクチャを提案する。
- 参考スコア(独自算出の注目度): 0.49747156441456597
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: An accurate understanding of a self-driving vehicle's surrounding environment
is crucial for its navigation system. To enhance the effectiveness of existing
algorithms and facilitate further research, it is essential to provide
comprehensive data to the routing system. Traditional approaches rely on
installing multiple sensors to simulate the environment, leading to high costs
and complexity. In this paper, we propose an alternative solution by generating
a top-down representation of the scene, enabling the extraction of distances
and directions of other cars relative to the ego vehicle. We introduce a new
synthesized dataset that offers extensive information about the ego vehicle and
its environment in each frame, providing valuable resources for similar
downstream tasks. Additionally, we present an architecture that transforms
perspective view RGB images into bird's-eye-view maps with segmented
surrounding vehicles. This approach offers an efficient and cost-effective
method for capturing crucial environmental information for self-driving cars.
Code and dataset are available at
https://github.com/IPM-HPC/Perspective-BEV-Transformer.
- Abstract(参考訳): 自動運転車の周囲環境の正確な理解は、ナビゲーションシステムにとって不可欠である。
既存のアルゴリズムの有効性を高め、さらなる研究を容易にするためには、ルーティングシステムに包括的なデータを提供することが不可欠である。
従来のアプローチでは、環境をシミュレートするために複数のセンサーをインストールする必要があった。
本稿では,シーンのトップダウン表現を生成して,エゴ車に対する他の車間距離と方向の抽出を可能にする方法を提案する。
我々は,エゴ車とその環境に関する情報を各フレームに提供し,類似の下流タスクに有用なリソースを提供する,新しい合成データセットを提案する。
さらに,ビュービューRGB画像を周囲の車両を分割した鳥眼ビューマップに変換するアーキテクチャを提案する。
このアプローチは、自動運転車の重要な環境情報を取得するための効率的で費用対効果の高い方法を提供する。
コードとデータセットはhttps://github.com/IPM-HPC/Perspective-BEV-Transformerで入手できる。
関連論文リスト
- BEVSeg2TP: Surround View Camera Bird's-Eye-View Based Joint Vehicle
Segmentation and Ego Vehicle Trajectory Prediction [4.328789276903559]
軌道予測は自動車の自律性にとって重要な課題である。
学習に基づく軌道予測への関心が高まっている。
認識能力を向上させる可能性があることが示される。
論文 参考訳(メタデータ) (2023-12-20T15:02:37Z) - RSRD: A Road Surface Reconstruction Dataset and Benchmark for Safe and
Comfortable Autonomous Driving [67.09546127265034]
道路表面の再構築は、車両の走行計画と制御システムの解析と予測を促進するのに役立つ。
我々は,様々な運転条件下で,特定のプラットフォームで収集した実世界,高解像度,高精度のデータセットであるRoad Surface Reconstructionデータセットを紹介した。
約16,000対のステレオ画像、原点雲、地中深度・不均等地図を含む一般的な道路形態を網羅している。
論文 参考訳(メタデータ) (2023-10-03T17:59:32Z) - Street-View Image Generation from a Bird's-Eye View Layout [95.36869800896335]
近年,Bird's-Eye View (BEV) の知覚が注目されている。
自動運転のためのデータ駆動シミュレーションは、最近の研究の焦点となっている。
本稿では,現実的かつ空間的に一貫した周辺画像を合成する条件生成モデルであるBEVGenを提案する。
論文 参考訳(メタデータ) (2023-01-11T18:39:34Z) - Exploring Contextual Representation and Multi-Modality for End-to-End
Autonomous Driving [58.879758550901364]
最近の知覚システムは、センサー融合による空間理解を高めるが、しばしば完全な環境コンテキストを欠いている。
我々は,3台のカメラを統合し,人間の視野をエミュレートするフレームワークを導入し,トップダウンのバードアイビューセマンティックデータと組み合わせて文脈表現を強化する。
提案手法は, オープンループ設定において0.67mの変位誤差を達成し, nuScenesデータセットでは6.9%の精度で現在の手法を上回っている。
論文 参考訳(メタデータ) (2022-10-13T05:56:20Z) - Vision Transformer for Learning Driving Policies in Complex Multi-Agent
Environments [17.825845543579195]
我々は,視覚変換器(ViT)を用いて,鳥眼ビュー(BEV)入力画像を用いた都市環境における運転方針を学習することを提案する。
ViTネットワークは、従来提案されていた畳み込みニューラルネットワーク(ConvNets)よりも、シーンのグローバルなコンテキストを効果的に学習する
論文 参考訳(メタデータ) (2021-09-14T08:18:47Z) - Attention-based Neural Network for Driving Environment Complexity
Perception [123.93460670568554]
本稿では,周囲の運転環境の複雑さを予測するための,注目に基づく新しいニューラルネットワークモデルを提案する。
Yolo-v3オブジェクト検出アルゴリズム、ヒートマップ生成アルゴリズム、CNNベースの特徴抽出器、注目ベースの特徴抽出器で構成される。
提案するアテンションベースネットワークは,周囲環境の複雑さを分類する平均分類精度91.22%を達成している。
論文 参考訳(メタデータ) (2021-06-21T17:27:11Z) - Multi-Modal Fusion Transformer for End-to-End Autonomous Driving [59.60483620730437]
画像表現とLiDAR表現を注目で統合する,新しいマルチモードフュージョントランスフォーマであるTransFuserを提案する。
本手法は, 衝突を76%低減しつつ, 最先端駆動性能を実現する。
論文 参考訳(メタデータ) (2021-04-19T11:48:13Z) - Fine-Grained Vehicle Perception via 3D Part-Guided Visual Data
Augmentation [77.60050239225086]
実画像中の車両に動的部品を付加した3次元自動車モデルによる効果的なトレーニングデータ生成プロセスを提案する。
私達のアプローチは人間の相互作用なしで完全に自動です。
VUS解析用マルチタスクネットワークとVHI解析用マルチストリームネットワークを提案する。
論文 参考訳(メタデータ) (2020-12-15T03:03:38Z) - Multi-View Fusion of Sensor Data for Improved Perception and Prediction
in Autonomous Driving [11.312620949473938]
本稿では,LiDARとカメラ画像の多視点表現を用いた物体検出と軌跡予測のエンドツーエンド手法を提案する。
我々のモデルは最先端のBird's-Eye View(BEV)ネットワーク上に構築され、歴史的なLiDARデータからボキセル化された特徴を融合する。
我々は、このモデルを、ネイティブな非量子化表現で生のLiDAR情報を使用する追加のLiDAR Range-View (RV)機能で拡張する。
論文 参考訳(メタデータ) (2020-08-27T03:32:25Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。