論文の概要: Detection-segmentation convolutional neural network for autonomous
vehicle perception
- arxiv url: http://arxiv.org/abs/2306.17485v1
- Date: Fri, 30 Jun 2023 08:54:52 GMT
- ステータス: 処理完了
- システム内更新日: 2023-07-03 13:04:23.415169
- Title: Detection-segmentation convolutional neural network for autonomous
vehicle perception
- Title(参考訳): 自律車両知覚のための検出・セグメンテーション畳み込みニューラルネットワーク
- Authors: Maciej Baczmanski, Robert Synoczek, Mateusz Wasala, Tomasz Kryjak
- Abstract要約: 物体検出とセグメンテーションは、自動運転車の認識システムの2つの中核モジュールである。
現在最もよく使われているアルゴリズムはディープニューラルネットワークに基づいており、高い効率性を保証するが、高性能なコンピューティングプラットフォームを必要とする。
ネットワークの複雑さの低減は、適切なアーキテクチャ、表現、コンピューティングプラットフォームを使用することで達成できる。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Object detection and segmentation are two core modules of an autonomous
vehicle perception system. They should have high efficiency and low latency
while reducing computational complexity. Currently, the most commonly used
algorithms are based on deep neural networks, which guarantee high efficiency
but require high-performance computing platforms. In the case of autonomous
vehicles, i.e. cars, but also drones, it is necessary to use embedded platforms
with limited computing power, which makes it difficult to meet the requirements
described above. A reduction in the complexity of the network can be achieved
by using an appropriate: architecture, representation (reduced numerical
precision, quantisation, pruning), and computing platform. In this paper, we
focus on the first factor - the use of so-called detection-segmentation
networks as a component of a perception system. We considered the task of
segmenting the drivable area and road markings in combination with the
detection of selected objects (pedestrians, traffic lights, and obstacles). We
compared the performance of three different architectures described in the
literature: MultiTask V3, HybridNets, and YOLOP. We conducted the experiments
on a custom dataset consisting of approximately 500 images of the drivable area
and lane markings, and 250 images of detected objects. Of the three methods
analysed, MultiTask V3 proved to be the best, achieving 99% mAP_50 for
detection, 97% MIoU for drivable area segmentation, and 91% MIoU for lane
segmentation, as well as 124 fps on the RTX 3060 graphics card. This
architecture is a good solution for embedded perception systems for autonomous
vehicles. The code is available at: https://github.com/vision-agh/MMAR_2023.
- Abstract(参考訳): オブジェクト検出とセグメンテーションは、自律車両知覚システムの2つのコアモジュールである。
計算複雑性を低減しつつ、高い効率性と低レイテンシを持つ必要がある。
現在最もよく使われているアルゴリズムはディープニューラルネットワークに基づいており、高い効率性を保証するが、高性能なコンピューティングプラットフォームを必要とする。
自動運転車、すなわち自動車やドローンの場合、計算能力に制限のある組込みプラットフォームを使用する必要があるため、上述の要件を満たすことが困難になる。
ネットワークの複雑さの削減は、適切なアーキテクチャ、表現(最小化された数値精度、量子化、プルーニング)、コンピューティングプラットフォームを使用することによって達成できる。
本稿では,認識システムのコンポーネントとして,いわゆる検出セグメンテーションネットワークの利用という,第1の要素に焦点をあてる。
そこで我々は,乾燥した地域と道路標識を,選択した物体(歩行者,信号機,障害物)の検出と組み合わせて分割する作業を検討した。
論文では、MultiTask V3、HybridNets、YOLOPの3つの異なるアーキテクチャのパフォーマンスを比較した。
本研究では,約500の画像と車線マーキング,および検出対象の250画像からなるカスタムデータセットを用いて実験を行った。
分析された3つの方法のうち、マルチタスクv3が最も良く、検出に99%のmap_50、乾燥可能なエリアセグメンテーションに97%のmiou、レーンセグメンテーションに91%のmiou、rtx 3060グラフィックカードに124fpsを達成した。
このアーキテクチャは、自動運転車の組み込み認識システムにとって良いソリューションである。
コードはhttps://github.com/vision-agh/mmar_2023。
関連論文リスト
- Implementation of a perception system for autonomous vehicles using a
detection-segmentation network in SoC FPGA [0.0]
我々は,MultiTaskV3検出セグメンテーションネットワークを,単一アーキテクチャ内で両方の機能を実現する知覚システムの基礎として用いている。
システム全体の電力消費はCPUベースの実装に比べて比較的少ない。
また、オブジェクト検出のmAPの97%以上、画像分割のmIoUの90%以上を達成している。
論文 参考訳(メタデータ) (2023-07-17T17:44:18Z) - HeteroEdge: Addressing Asymmetry in Heterogeneous Collaborative
Autonomous Systems [1.274065448486689]
2台の無人地上車両(UGV)と2台のNVIDIA Jetsonデバイスからなるテストベッドの自己適応最適化フレームワークを提案する。
このフレームワークは、異種ノード上の複数のタスク(ストレージ、処理、計算、送信、推論)を同時に効率的に管理する。
入力された画像フレームの圧縮とマスキング、類似したフレームの識別、および最適化のための境界条件を得るためにプロファイリング装置を含む。
論文 参考訳(メタデータ) (2023-05-05T02:43:16Z) - Architecturing Binarized Neural Networks for Traffic Sign Recognition [0.0]
バイナリニューラルネットワーク(BNN)は、計算に制限された、エネルギーに制約のあるデバイスにおいて、有望な結果を示している。
我々はドイツ交通信号認識ベンチマーク(GTSRB)の90%以上を達成できるBNNアーキテクチャを提案する。
これらのアーキテクチャのパラメータの数は100kから2M未満まで様々である。
論文 参考訳(メタデータ) (2023-03-27T08:46:31Z) - SPIN Road Mapper: Extracting Roads from Aerial Images via Spatial and
Interaction Space Graph Reasoning for Autonomous Driving [64.10636296274168]
道路抽出は、自律航法システムを構築するための重要なステップである。
この問題に対して単に畳み込みニューラルネットワーク(ConvNets)を使用することは、画像内の道路セグメント間の遠い依存関係をキャプチャする非効率であるため、効果がない。
本研究では,ConvNetに接続した時,特徴写像から投影された空間空間および相互作用空間上に構築されたグラフの推論を行う空間空間グラフ推論(SPIN)モジュールを提案する。
論文 参考訳(メタデータ) (2021-09-16T03:52:17Z) - CFTrack: Center-based Radar and Camera Fusion for 3D Multi-Object
Tracking [9.62721286522053]
本稿では,レーダとカメラセンサの融合に基づく共同物体検出と追跡のためのエンドツーエンドネットワークを提案する。
提案手法では,物体検出に中心型レーダカメラ融合アルゴリズムを用い,物体関連にグリーディアルゴリズムを用いる。
提案手法は,20.0AMOTAを達成し,ベンチマークにおける視覚ベースの3Dトラッキング手法よりも優れる,挑戦的なnuScenesデータセット上で評価する。
論文 参考訳(メタデータ) (2021-07-11T23:56:53Z) - Dynamic Fusion Module Evolves Drivable Area and Road Anomaly Detection:
A Benchmark and Algorithms [16.417299198546168]
移動ロボットにとって,乾燥領域と道路異常の同時検出は非常に重要である。
本稿では,まず,地上移動ロボットの乾性領域と道路異常検出ベンチマークを構築した。
本稿では,既存のデータ・フュージョン・ネットワークに容易にデプロイ可能なdynamic fusion module (dfm) と呼ばれる新しいモジュールを提案する。
論文 参考訳(メタデータ) (2021-03-03T14:38:27Z) - Fine-Grained Vehicle Perception via 3D Part-Guided Visual Data
Augmentation [77.60050239225086]
実画像中の車両に動的部品を付加した3次元自動車モデルによる効果的なトレーニングデータ生成プロセスを提案する。
私達のアプローチは人間の相互作用なしで完全に自動です。
VUS解析用マルチタスクネットワークとVHI解析用マルチストリームネットワークを提案する。
論文 参考訳(メタデータ) (2020-12-15T03:03:38Z) - Detecting 32 Pedestrian Attributes for Autonomous Vehicles [103.87351701138554]
本稿では、歩行者を共同で検出し、32の歩行者属性を認識するという課題に対処する。
本稿では,複合フィールドフレームワークを用いたマルチタスク学習(MTL)モデルを提案する。
競合検出と属性認識の結果と,より安定したMTLトレーニングを示す。
論文 参考訳(メタデータ) (2020-12-04T15:10:12Z) - Anchor-free Small-scale Multispectral Pedestrian Detection [88.7497134369344]
適応型単一段アンカーフリーベースアーキテクチャにおける2つのモードの効果的かつ効率的な多重スペクトル融合法を提案する。
我々は,直接的境界ボックス予測ではなく,対象の中心と規模に基づく歩行者表現の学習を目指す。
その結果,小型歩行者の検出における本手法の有効性が示唆された。
論文 参考訳(メタデータ) (2020-08-19T13:13:01Z) - PerMO: Perceiving More at Once from a Single Image for Autonomous
Driving [76.35684439949094]
単一画像から完全テクスチャ化された車両の3次元モデルを検出し,セグメント化し,再構成する新しい手法を提案する。
私たちのアプローチは、ディープラーニングの強みと従来のテクニックの優雅さを組み合わせています。
我々はこれらのアルゴリズムを自律運転システムに統合した。
論文 参考訳(メタデータ) (2020-07-16T05:02:45Z) - Binary DAD-Net: Binarized Driveable Area Detection Network for
Autonomous Driving [94.40107679615618]
本稿では,二項化駆動型領域検出ネットワーク(バイナリDAD-Net)を提案する。
エンコーダ、ボトルネック、デコーダ部分の2重みとアクティベーションのみを使用する。
パブリックデータセット上で、最先端のセマンティックセグメンテーションネットワークより優れています。
論文 参考訳(メタデータ) (2020-06-15T07:09:01Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。