論文の概要: An intelligent modular real-time vision-based system for environment
perception
- arxiv url: http://arxiv.org/abs/2303.16710v1
- Date: Wed, 29 Mar 2023 14:04:59 GMT
- ステータス: 処理完了
- システム内更新日: 2023-03-30 14:42:14.956203
- Title: An intelligent modular real-time vision-based system for environment
perception
- Title(参考訳): 環境認識のためのモジュール型リアルタイム視覚システム
- Authors: Amirhossein Kazerouni, Amirhossein Heydarian, Milad Soltany, Aida
Mohammadshahi, Abbas Omidi and Saeed Ebadollahi
- Abstract要約: 本稿では,環境を認識することで運転者の安全を確保するために,視覚に基づく新しいモジュールパッケージを提案する。
モジュールパッケージは, レーン検出, 物体検出, セグメンテーション, 単分子深度推定の4つの主要な部分から構成される。
BDD100Kのような公開データセットの使用に加えて、システムの微調整と評価に使用するローカルデータセットの収集とアノテーションも行っています。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: A significant portion of driving hazards is caused by human error and
disregard for local driving regulations; Consequently, an intelligent
assistance system can be beneficial. This paper proposes a novel vision-based
modular package to ensure drivers' safety by perceiving the environment. Each
module is designed based on accuracy and inference time to deliver real-time
performance. As a result, the proposed system can be implemented on a wide
range of vehicles with minimum hardware requirements. Our modular package
comprises four main sections: lane detection, object detection, segmentation,
and monocular depth estimation. Each section is accompanied by novel techniques
to improve the accuracy of others along with the entire system. Furthermore, a
GUI is developed to display perceived information to the driver. In addition to
using public datasets, like BDD100K, we have also collected and annotated a
local dataset that we utilize to fine-tune and evaluate our system. We show
that the accuracy of our system is above 80% in all the sections. Our code and
data are available at
https://github.com/Pandas-Team/Autonomous-Vehicle-Environment-Perception
- Abstract(参考訳): 運転障害のかなりの部分は、人的ミスと局所運転規制の無視によって引き起こされるため、インテリジェントな補助システムが有用である。
本稿では,環境を把握して運転者の安全を確保するための,新しいビジョンベースのモジュールパッケージを提案する。
各モジュールは、精度と推論時間に基づいて設計され、リアルタイムパフォーマンスを提供する。
その結果、提案システムは、最小限のハードウェア要件で、幅広い車両に実装できる。
モジュールパッケージは,レーン検出,オブジェクト検出,セグメンテーション,単眼深度推定の4つの主セクションからなる。
各セクションには、システム全体とともに他の人の精度を向上させる新しいテクニックが付属している。
さらに、ドライバに認識情報を表示するGUIを開発する。
BDD100Kのような公開データセットの使用に加えて、システムの微調整と評価に使用するローカルデータセットの収集とアノテーションも行っています。
すべてのセクションにおいて,システムの精度が80%以上であることを示す。
私たちのコードとデータはhttps://github.com/Pandas-Team/Autonomous-Vehicle-Environment-Perceptionで公開されています。
関連論文リスト
- HawkDrive: A Transformer-driven Visual Perception System for Autonomous Driving in Night Scene [2.5022287664959446]
HawkDriveは、ハードウェアとソフトウェアソリューションを備えた新しいビジョンシステムである。
立体視認識を利用するハードウェアは、エッジコンピューティングデバイスNvidia Jetson Xavier AGXと提携している。
低光強調、深度推定、セマンティックセグメンテーションタスクのためのソフトウェアは、トランスフォーマーベースのニューラルネットワークである。
論文 参考訳(メタデータ) (2024-04-06T15:10:29Z) - G-MEMP: Gaze-Enhanced Multimodal Ego-Motion Prediction in Driving [71.9040410238973]
我々は、視線データを用いて、運転者の車両のエゴ軌道を推定することに集中する。
次に、GPSとビデオ入力と視線データを組み合わせた新しいマルチモーダルエゴ軌道予測ネットワークであるG-MEMPを開発する。
その結果,G-MEMPは両ベンチマークにおいて最先端の手法よりも優れていた。
論文 参考訳(メタデータ) (2023-12-13T23:06:30Z) - Deep Perspective Transformation Based Vehicle Localization on Bird's Eye
View [0.49747156441456597]
従来のアプローチでは、環境をシミュレートする複数のセンサーのインストールに依存していた。
シーンのトップダウン表現を生成することで、代替ソリューションを提案する。
本稿では,RGB画像の視点ビューを,周囲の車両を分割した鳥眼ビューマップに変換するアーキテクチャを提案する。
論文 参考訳(メタデータ) (2023-11-12T10:16:42Z) - DARTH: Holistic Test-time Adaptation for Multiple Object Tracking [87.72019733473562]
複数物体追跡(MOT)は、自律運転における知覚システムの基本的構成要素である。
運転システムの安全性の追求にもかかわらず、テスト時間条件における領域シフトに対するMOT適応問題に対する解決策は提案されていない。
我々はMOTの総合的なテスト時間適応フレームワークであるDARTHを紹介する。
論文 参考訳(メタデータ) (2023-10-03T10:10:42Z) - Exploring Contextual Representation and Multi-Modality for End-to-End
Autonomous Driving [58.879758550901364]
最近の知覚システムは、センサー融合による空間理解を高めるが、しばしば完全な環境コンテキストを欠いている。
我々は,3台のカメラを統合し,人間の視野をエミュレートするフレームワークを導入し,トップダウンのバードアイビューセマンティックデータと組み合わせて文脈表現を強化する。
提案手法は, オープンループ設定において0.67mの変位誤差を達成し, nuScenesデータセットでは6.9%の精度で現在の手法を上回っている。
論文 参考訳(メタデータ) (2022-10-13T05:56:20Z) - Towards an Error-free Deep Occupancy Detector for Smart Camera Parking
System [0.26249027950824505]
我々は,OcpDetと呼ばれる物体検出装置による自律的占有度を提供する,エンドツーエンドのスマートカメラ駐車システムを提案する。
我々の検出器はまた、トレーニングや空間知識といった対照的なモジュールからの有意義な情報も提供しています。
我々は、既存のPKLotデータセット上でOcpDetをベンチマークし、従来の分類ソリューションと比較して競合する結果を得た。
論文 参考訳(メタデータ) (2022-08-17T11:02:29Z) - CODA: A Real-World Road Corner Case Dataset for Object Detection in
Autonomous Driving [117.87070488537334]
我々は、ビジョンベース検出器のこの重要な問題を露呈する、CODAという挑戦的なデータセットを導入する。
大規模自動運転データセットで訓練された標準物体検出器の性能は、mARの12.8%以下に著しく低下した。
我々は最先端のオープンワールドオブジェクト検出器を実験し、CODAの新しいオブジェクトを確実に識別できないことを発見した。
論文 参考訳(メタデータ) (2022-03-15T08:32:56Z) - An Intelligent Self-driving Truck System For Highway Transportation [81.12838700312308]
本稿では,インテリジェントな自動運転トラックシステムについて紹介する。
提案システムは,1)テストシナリオにおける現実的なトラフィックフローを生成する現実的なトラフィックシミュレーションモジュール,2)実環境における実際のトラックの応答を模倣するために設計,評価された高忠実度トラックモデル,の3つの主要コンポーネントから構成される。
また,提案するシステムを実車に展開し,実車間ギャップを緩和するシステムの能力を示す実物実験を行う。
論文 参考訳(メタデータ) (2021-12-31T04:54:13Z) - SODA10M: Towards Large-Scale Object Detection Benchmark for Autonomous
Driving [94.11868795445798]
我々は,SODA10Mという名の自律走行用大規模物体検出ベンチマークをリリースし,1000万枚の未ラベル画像と6つの代表対象カテゴリをラベル付けした20K画像を含む。
多様性を向上させるために、画像は32の異なる都市で、1フレームあたり10秒毎に異なる気象条件、期間、場所のシーンで収集される。
我々は、既存の教師付き最先端検出モデル、一般的な自己監督型および半教師付きアプローチ、および将来のモデルの開発方法に関するいくつかの知見について、広範な実験と詳細な分析を行った。
論文 参考訳(メタデータ) (2021-06-21T13:55:57Z) - End-to-end Autonomous Driving Perception with Sequential Latent
Representation Learning [34.61415516112297]
エンドツーエンドのアプローチでは、システムをクリーンアップし、人間のエンジニアリングの膨大な努力を避けることができる。
潜在空間は、知覚に有用なすべての関連する特徴を捉えるために導入され、逐次潜在表現学習を通じて学習される。
学習したエンドツーエンドの知覚モデルは、最小限の人間工学的努力だけで検出、追跡、ローカライゼーション、マッピングの問題を解決することができる。
論文 参考訳(メタデータ) (2020-03-21T05:37:44Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。