論文の概要: DeepSTEP -- Deep Learning-Based Spatio-Temporal End-To-End Perception
for Autonomous Vehicles
- arxiv url: http://arxiv.org/abs/2305.06820v1
- Date: Thu, 11 May 2023 14:13:37 GMT
- ステータス: 処理完了
- システム内更新日: 2023-05-12 14:43:28.764460
- Title: DeepSTEP -- Deep Learning-Based Spatio-Temporal End-To-End Perception
for Autonomous Vehicles
- Title(参考訳): DeepSTEP -- ディープラーニングによる自動車の時空間知覚
- Authors: Sebastian Huch, Florian Sauerbeck, Johannes Betz
- Abstract要約: 我々はDeepSTEPというエンド・ツー・エンドの知覚アーキテクチャの概念を提示する。
DeepSTEPは、カメラ、LiDAR、RaDARからの生のセンサーデータを処理し、抽出したデータを深層融合ネットワークに結合する。
アーキテクチャのエンド・ツー・エンドの設計、タイムアウェア・アテンション・メカニズム、および複数の知覚タスクの統合により、現実世界のデプロイメントにおいて有望なソリューションとなる。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Autonomous vehicles demand high accuracy and robustness of perception
algorithms. To develop efficient and scalable perception algorithms, the
maximum information should be extracted from the available sensor data. In this
work, we present our concept for an end-to-end perception architecture, named
DeepSTEP. The deep learning-based architecture processes raw sensor data from
the camera, LiDAR, and RaDAR, and combines the extracted data in a deep fusion
network. The output of this deep fusion network is a shared feature space,
which is used by perception head networks to fulfill several perception tasks,
such as object detection or local mapping. DeepSTEP incorporates multiple ideas
to advance state of the art: First, combining detection and localization into a
single pipeline allows for efficient processing to reduce computational
overhead and further improves overall performance. Second, the architecture
leverages the temporal domain by using a self-attention mechanism that focuses
on the most important features. We believe that our concept of DeepSTEP will
advance the development of end-to-end perception systems. The network will be
deployed on our research vehicle, which will be used as a platform for data
collection, real-world testing, and validation. In conclusion, DeepSTEP
represents a significant advancement in the field of perception for autonomous
vehicles. The architecture's end-to-end design, time-aware attention mechanism,
and integration of multiple perception tasks make it a promising solution for
real-world deployment. This research is a work in progress and presents the
first concept of establishing a novel perception pipeline.
- Abstract(参考訳): 自動運転車は認識アルゴリズムの精度と堅牢性を要求する。
効率的でスケーラブルな知覚アルゴリズムを開発するためには,センサデータから最大限の情報を抽出する必要がある。
本研究では,DeepSTEPというエンド・ツー・エンドの知覚アーキテクチャの概念を提示する。
ディープラーニングベースのアーキテクチャは、カメラ、LiDAR、RaDARからの生センサデータを処理し、抽出したデータを深層融合ネットワークに結合する。
この深層融合ネットワークの出力は共有特徴空間であり、物体検出や局所マッピングなどの知覚的タスクを達成するために知覚ヘッドネットワークによって使用される。
ひとつは、検出とローカライズをひとつのパイプラインに組み合わせることで、効率的な処理によって計算オーバーヘッドが削減され、全体的なパフォーマンスがさらに向上します。
第二に、アーキテクチャは最も重要な機能に焦点を当てたセルフアテンションメカニズムを使用することで、時間領域を活用する。
我々は,DeepSTEPの概念がエンド・ツー・エンドの知覚システムの開発を促進すると考えている。
ネットワークは当社の研究車両にデプロイされ、データ収集、実世界のテスト、バリデーションのプラットフォームとして使用される予定です。
結論として、DeepSTEPは自動運転車に対する認識の分野で大きな進歩を示している。
アーキテクチャのエンドツーエンド設計、タイムアウェアなアテンション機構、複数の知覚タスクの統合は、現実のデプロイメントにとって有望なソリューションになります。
この研究は進行中の研究であり、新しい知覚パイプラインを確立する最初の概念を提示している。
関連論文リスト
- V2X-AHD:Vehicle-to-Everything Cooperation Perception via Asymmetric
Heterogenous Distillation Network [13.248981195106069]
車両間協調認識システム(V2X-AHD)を提案する。
この研究によると、V2X-AHDは3次元物体検出の精度を効果的に向上し、ネットワークパラメータの数を削減できる。
論文 参考訳(メタデータ) (2023-10-10T13:12:03Z) - Spatial-Temporal Graph Enhanced DETR Towards Multi-Frame 3D Object Detection [54.041049052843604]
STEMDは,多フレーム3Dオブジェクト検出のためのDETRのようなパラダイムを改良した,新しいエンドツーエンドフレームワークである。
まず、オブジェクト間の空間的相互作用と複雑な時間的依存をモデル化するために、空間的時間的グラフアテンションネットワークを導入する。
最後に、ネットワークが正のクエリと、ベストマッチしない他の非常に類似したクエリを区別することが課題となる。
論文 参考訳(メタデータ) (2023-07-01T13:53:14Z) - A Threefold Review on Deep Semantic Segmentation: Efficiency-oriented,
Temporal and Depth-aware design [77.34726150561087]
我々は、自動運転車のビジョンの文脈において、Deep Semanticの最も関連性があり最近の進歩について調査を行う。
私たちの主な目的は、それぞれの視点で直面している主要な方法、利点、制限、結果、課題に関する包括的な議論を提供することです。
論文 参考訳(メタデータ) (2023-03-08T01:29:55Z) - VINet: Lightweight, Scalable, and Heterogeneous Cooperative Perception
for 3D Object Detection [15.195933965761645]
協調知覚(CP)は自動運転の認知を著しく向上させる。
我々は、スケーラブルで軽量で異種な協調型3Dオブジェクト検出のための統合ディープラーニングベースのCPネットワークであるVINetを紹介する。
VINetは、システムレベルの計算コストが84%、システムレベルの通信コストが94%削減され、3D検出精度が向上する。
論文 参考訳(メタデータ) (2022-12-14T07:03:23Z) - Lightweight Monocular Depth Estimation with an Edge Guided Network [34.03711454383413]
本稿では,新しいエッジガイド深度推定ネットワーク(EGD-Net)を提案する。
特に、軽量なエンコーダデコーダアーキテクチャから始め、エッジガイダンスブランチを組み込む。
コンテクスト情報とエッジアテンション特徴を集約するために,トランスフォーマーをベースとした機能アグリゲーションモジュールを設計する。
論文 参考訳(メタデータ) (2022-09-29T14:45:47Z) - AGO-Net: Association-Guided 3D Point Cloud Object Detection Network [86.10213302724085]
ドメイン適応によるオブジェクトの無傷な特徴を関連付ける新しい3D検出フレームワークを提案する。
我々は,KITTIの3D検出ベンチマークにおいて,精度と速度の両面で最新の性能を実現する。
論文 参考訳(メタデータ) (2022-08-24T16:54:38Z) - ST-P3: End-to-end Vision-based Autonomous Driving via Spatial-Temporal
Feature Learning [132.20119288212376]
本稿では,認識,予測,計画タスクを同時に行うための,より代表的な特徴の集合に対する時空間的特徴学習手法を提案する。
私たちの知識を最大限に活用するために、私たちは、解釈可能なエンドツーエンドの自動運転システムの各部分を体系的に調査した最初の人です。
論文 参考訳(メタデータ) (2022-07-15T16:57:43Z) - RealNet: Combining Optimized Object Detection with Information Fusion
Depth Estimation Co-Design Method on IoT [2.9275056713717285]
本稿では,モデル流線形認識アルゴリズム,深度推定アルゴリズム,情報融合を組み合わせた共同設計手法を提案する。
本稿では,リアルタイム要求の高いモバイルプラットフォームに適した手法を提案する。
論文 参考訳(メタデータ) (2022-04-24T08:35:55Z) - On Deep Learning Techniques to Boost Monocular Depth Estimation for
Autonomous Navigation [1.9007546108571112]
画像の深さを推定することはコンピュータビジョンの分野における根本的な逆問題である。
本稿では,新しい特徴抽出モデルと組み合わせ,軽量で高速なCNNアーキテクチャを提案する。
また,SIDE問題を解くために,単純な幾何2.5D損失関数と組み合わせて効率的な表面正規化モジュールを導入する。
論文 参考訳(メタデータ) (2020-10-13T18:37:38Z) - Depthwise Non-local Module for Fast Salient Object Detection Using a
Single Thread [136.2224792151324]
本稿では,高速な物体検出のための新しいディープラーニングアルゴリズムを提案する。
提案アルゴリズムは,1つのCPUスレッドと同時に,競合精度と高い推論効率を実現する。
論文 参考訳(メタデータ) (2020-01-22T15:23:48Z) - Deep Learning based Pedestrian Inertial Navigation: Methods, Dataset and
On-Device Inference [49.88536971774444]
慣性測定ユニット(IMU)は小型で安価でエネルギー効率が良く、スマートデバイスや移動ロボットに広く使われている。
正確で信頼性の高い歩行者ナビゲーションをサポートするために慣性データをエクスプロイトすることは、新しいインターネット・オブ・シングス・アプリケーションやサービスにとって重要なコンポーネントである。
我々は、深層学習に基づく慣性ナビゲーション研究のための最初の公開データセットであるOxIOD(OxIOD)を提示、リリースする。
論文 参考訳(メタデータ) (2020-01-13T04:41:54Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。