論文の概要: Semantic Segmentation for Autonomous Driving: Model Evaluation, Dataset
Generation, Perspective Comparison, and Real-Time Capability
- arxiv url: http://arxiv.org/abs/2207.12939v1
- Date: Tue, 26 Jul 2022 14:45:44 GMT
- ステータス: 処理完了
- システム内更新日: 2022-07-27 12:24:32.931791
- Title: Semantic Segmentation for Autonomous Driving: Model Evaluation, Dataset
Generation, Perspective Comparison, and Real-Time Capability
- Title(参考訳): 自律運転のためのセマンティックセグメンテーション:モデル評価、データセット生成、パースペクティブ比較、リアルタイム能力
- Authors: Senay Cakir, Marcel Gau{\ss}, Kai H\"appeler, Yassine Ounajjar, Fabian
Heinle and Reiner Marchthaler
- Abstract要約: FasterSegは、自動運転車の低消費電力(組み込み)デバイスでリアルタイムに使用できるほど高速である。
1対1で320倍256$のインプットで、FasterSegは$65.44,%の平均インターセクション(mIoU)を達成した。
鳥の視線から320倍256ドルを入力するために、FasterSegは64.08,% mIoUを達成している。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by-sa/4.0/
- Abstract: Environmental perception is an important aspect within the field of
autonomous vehicles that provides crucial information about the driving domain,
including but not limited to identifying clear driving areas and surrounding
obstacles. Semantic segmentation is a widely used perception method for
self-driving cars that associates each pixel of an image with a predefined
class. In this context, several segmentation models are evaluated regarding
accuracy and efficiency. Experimental results on the generated dataset confirm
that the segmentation model FasterSeg is fast enough to be used in realtime on
lowpower computational (embedded) devices in self-driving cars. A simple method
is also introduced to generate synthetic training data for the model. Moreover,
the accuracy of the first-person perspective and the bird's eye view
perspective are compared. For a $320 \times 256$ input in the first-person
perspective, FasterSeg achieves $65.44\,\%$ mean Intersection over Union
(mIoU), and for a $320 \times 256$ input from the bird's eye view perspective,
FasterSeg achieves $64.08\,\%$ mIoU. Both perspectives achieve a frame rate of
$247.11$ Frames per Second (FPS) on the NVIDIA Jetson AGX Xavier. Lastly, the
frame rate and the accuracy with respect to the arithmetic 16-bit Floating
Point (FP16) and 32-bit Floating Point (FP32) of both perspectives are measured
and compared on the target hardware.
- Abstract(参考訳): 環境認識は、運転領域に関する重要な情報を提供する自動運転車の分野における重要な側面である。
セマンティックセグメンテーション(Semantic segmentation)は、画像の各ピクセルを事前に定義されたクラスに関連付ける自動運転車の認識方法である。
この文脈では、複数のセグメンテーションモデルが精度と効率について評価される。
生成されたデータセットの実験的結果は、セグメンテーションモデルは、自動運転車の低消費電力計算(埋め込み)デバイスでリアルタイムに使用できるほど高速であることを確認する。
モデルの合成トレーニングデータを生成するための単純な方法も紹介されている。
さらに、一対一視点と鳥の目視視点の精度を比較した。
1対1の視点で320 \times 256$入力に対して、FasterSegは65.44\,\%$平均接続(mIoU)を達成し、鳥の目から見た320 \times 256$入力に対して、FasterSegは64.08\,\%$mIoUを達成している。
どちらの視点もNVIDIA Jetson AGX Xavierのフレームレートは247.11$ Frames per second (FPS)である。
最後に、両視点の算術16ビット浮動小数点(FP16)及び32ビット浮動小数点(FP32)に対するフレームレートと精度を測定し、対象ハードウェアと比較する。
関連論文リスト
- G-MEMP: Gaze-Enhanced Multimodal Ego-Motion Prediction in Driving [71.9040410238973]
我々は、視線データを用いて、運転者の車両のエゴ軌道を推定することに集中する。
次に、GPSとビデオ入力と視線データを組み合わせた新しいマルチモーダルエゴ軌道予測ネットワークであるG-MEMPを開発する。
その結果,G-MEMPは両ベンチマークにおいて最先端の手法よりも優れていた。
論文 参考訳(メタデータ) (2023-12-13T23:06:30Z) - Nighttime Driver Behavior Prediction Using Taillight Signal Recognition
via CNN-SVM Classifier [2.44755919161855]
本研究の目的は、人間駆動車と自律車の両方のテールライトを特定し、夜間運転行動を予測する能力を高めることである。
提案モデルでは、道路の前方のテールライトを正確に検出するカスタム検出器が組み込まれている。
夜間の限られたデータに対処するため、昼間の画像をリアルな夜のイメージに変換するために、ユニークな画素ワイズ画像処理技術を実装した。
論文 参考訳(メタデータ) (2023-10-25T15:23:33Z) - Detection-segmentation convolutional neural network for autonomous
vehicle perception [0.0]
物体検出とセグメンテーションは、自動運転車の認識システムの2つの中核モジュールである。
現在最もよく使われているアルゴリズムはディープニューラルネットワークに基づいており、高い効率性を保証するが、高性能なコンピューティングプラットフォームを必要とする。
ネットワークの複雑さの低減は、適切なアーキテクチャ、表現、コンピューティングプラットフォームを使用することで達成できる。
論文 参考訳(メタデータ) (2023-06-30T08:54:52Z) - Doubly Contrastive End-to-End Semantic Segmentation for Autonomous
Driving under Adverse Weather [6.808112517338073]
本稿では,より実用性の高い自動運転モデルの性能向上のための2つの対照的なアプローチを提案する。
提案手法は,エンドツーエンドの教師あり学習方式において,画像レベルのコントラストと画素レベルのコントラストを利用する。
我々は,画像レベルの監督を自己監督に置き換えることで,晴れた気象画像で事前訓練した場合に同等の性能を達成できることを実証した。
論文 参考訳(メタデータ) (2022-11-21T00:26:41Z) - Monocular BEV Perception of Road Scenes via Front-to-Top View Projection [57.19891435386843]
本稿では,鳥の目視で道路配置と車両占有率によって形成された局所地図を再構築する新しい枠組みを提案する。
我々のモデルは1つのGPU上で25FPSで動作し、リアルタイムパノラマHDマップの再構築に有効である。
論文 参考訳(メタデータ) (2022-11-15T13:52:41Z) - Real Time Monocular Vehicle Velocity Estimation using Synthetic Data [78.85123603488664]
移動車に搭載されたカメラから車両の速度を推定する問題を考察する。
そこで本研究では,まずオフ・ザ・シェルフ・トラッカーを用いて車両バウンディングボックスを抽出し,その後,小型ニューラルネットワークを用いて車両速度を回帰する2段階のアプローチを提案する。
論文 参考訳(メタデータ) (2021-09-16T13:10:27Z) - Robust 2D/3D Vehicle Parsing in CVIS [54.825777404511605]
本研究では,協調型車両インフラシステム(CVIS)の一環として,異なるカメラビューの車両を堅牢に検出・認識する新しいアプローチを提案する。
提案方式は任意のカメラビュー向けに設計されており,本質的パラメータや外部的パラメータを仮定しない。
実際に,本手法は2次元検出,インスタンスセグメンテーション,6-DoFのポーズ推定においてSOTA法より優れている。
論文 参考訳(メタデータ) (2021-03-11T03:35:05Z) - Deep Dual-resolution Networks for Real-time and Accurate Semantic
Segmentation of Road Scenes [0.23090185577016442]
道路シーンのリアルタイムセマンティックセグメンテーションのための新しいディープデュアルリゾリューションネットワーク(DDRNets)を提案する。
提案手法は,Cityscapes と CamVid 両方のデータセットにおける精度と速度の新たなトレードオフを実現する。
論文 参考訳(メタデータ) (2021-01-15T12:56:18Z) - Towards Autonomous Driving: a Multi-Modal 360$^{\circ}$ Perception
Proposal [87.11988786121447]
本稿では,自動運転車の3次元物体検出と追跡のためのフレームワークを提案する。
このソリューションは、新しいセンサ融合構成に基づいて、正確で信頼性の高い道路環境検出を提供する。
自動運転車に搭載されたシステムの様々なテストは、提案された知覚スタックの適合性を評価することに成功している。
論文 参考訳(メタデータ) (2020-08-21T20:36:21Z) - SegCodeNet: Color-Coded Segmentation Masks for Activity Detection from
Wearable Cameras [1.4680035572775534]
関連オブジェクトのカラーコードセマンティックセグメンテーションマスクを備えたビデオストリームを含むネットワークブランチを用いた2ストリームネットワークであるemphSegCodeNetを開発した。
オフィス環境における18ドルのアクティビティクラスを含むFPVデータセットで実験を行う。
論文 参考訳(メタデータ) (2020-08-19T14:01:53Z) - Parsing-based View-aware Embedding Network for Vehicle Re-Identification [138.11983486734576]
本稿では,車載ReIDのビューアウェア機能アライメントと拡張を実現するために,解析に基づくPVEN(View-Aware Embedding Network)を提案する。
3つのデータセットで行った実験により、我々のモデルは最先端の手法よりも大きなマージンで優れていることが示された。
論文 参考訳(メタデータ) (2020-04-10T13:06:09Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。