論文の概要: Road obstacles positional and dynamic features extraction combining
object detection, stereo disparity maps and optical flow data
- arxiv url: http://arxiv.org/abs/2006.14011v1
- Date: Wed, 24 Jun 2020 19:29:06 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-17 13:09:05.328319
- Title: Road obstacles positional and dynamic features extraction combining
object detection, stereo disparity maps and optical flow data
- Title(参考訳): 物体検出とステレオ不一致マップと光フローデータを組み合わせた道路障害物の位置・動的特徴抽出
- Authors: Thiago Rateke and Aldo von Wangenheim
- Abstract要約: ナビゲーション目的の視覚認識システムが障害を特定することは重要である。
本稿では,障害物の同定とクラス,位置,深さ,動き情報の抽出について述べる。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: One of the most relevant tasks in an intelligent vehicle navigation system is
the detection of obstacles. It is important that a visual perception system for
navigation purposes identifies obstacles, and it is also important that this
system can extract essential information that may influence the vehicle's
behavior, whether it will be generating an alert for a human driver or guide an
autonomous vehicle in order to be able to make its driving decisions. In this
paper we present an approach for the identification of obstacles and extraction
of class, position, depth and motion information from these objects that
employs data gained exclusively from passive vision. We performed our
experiments on two different data-sets and the results obtained shown a good
efficacy from the use of depth and motion patterns to assess the obstacles'
potential threat status.
- Abstract(参考訳): インテリジェントな車両ナビゲーションシステムで最も重要なタスクの1つは障害物の検出である。
ナビゲーション目的の視覚認識システムでは障害物を識別することが重要であり,人間の運転に対する警告を発生させるか,自動運転車を誘導して運転決定を下すか,車両の行動に影響を与える可能性のある重要な情報を抽出できることも重要である。
本稿では,受動的視覚から得られるデータを用いて障害物の同定と,これらの物体からクラス,位置,深さ,動作情報を抽出する手法を提案する。
2つの異なるデータセットについて実験を行い,その結果,障害物の潜在的な脅威状態を評価するために深度パターンと運動パターンを用いることにより,良好な効果を示した。
関連論文リスト
- Advancing Autonomous Driving Perception: Analysis of Sensor Fusion and Computer Vision Techniques [0.0]
このプロジェクトは、自動運転ロボットの理解とナビゲーション能力の向上に焦点を当てている。
既存の検出と追跡アルゴリズムを用いて、未知のマップ2Dマップへのより良いナビゲーションを実現する方法について検討する。
論文 参考訳(メタデータ) (2024-11-15T19:11:58Z) - OOSTraj: Out-of-Sight Trajectory Prediction With Vision-Positioning Denoising [49.86409475232849]
軌道予測はコンピュータビジョンと自律運転の基本である。
この分野における既存のアプローチは、しばしば正確で完全な観測データを仮定する。
本稿では,視覚的位置決め技術を利用した視線外軌道予測手法を提案する。
論文 参考訳(メタデータ) (2024-04-02T18:30:29Z) - DRUformer: Enhancing the driving scene Important object detection with
driving relationship self-understanding [50.81809690183755]
交通事故はしばしば致命傷を負い、2023年まで5000万人以上の死者を出した。
従来の研究は、主に個々の参加者の重要性を評価し、それらを独立した存在として扱うものであった。
本稿では、重要な物体検出タスクを強化するために、運転シーン関連自己理解変換器(DRUformer)を紹介する。
論文 参考訳(メタデータ) (2023-11-11T07:26:47Z) - Camera-Radar Perception for Autonomous Vehicles and ADAS: Concepts,
Datasets and Metrics [77.34726150561087]
本研究の目的は、ADASおよび自動運転車のカメラおよびレーダーによる認識の現在のシナリオに関する研究を行うことである。
両センサと融合に関する概念と特徴を提示する。
本稿では、ディープラーニングに基づく検出とセグメンテーションタスクの概要と、車両の認識における主要なデータセット、メトリクス、課題、オープンな質問について説明する。
論文 参考訳(メタデータ) (2023-03-08T00:48:32Z) - Perspective Aware Road Obstacle Detection [104.57322421897769]
道路障害物検出技術は,車間距離が大きくなるにつれて障害物の見かけの規模が減少するという事実を無視することを示す。
画像位置毎に仮想物体の見かけの大きさを符号化したスケールマップを演算することでこれを活用できる。
次に、この視点マップを利用して、遠近法に対応する大きさの道路合成物体に注入することで、トレーニングデータを生成する。
論文 参考訳(メタデータ) (2022-10-04T17:48:42Z) - 3D Object Detection for Autonomous Driving: A Comprehensive Survey [48.30753402458884]
自動運転車の近くで重要な3Dオブジェクトの位置、サイズ、カテゴリをインテリジェントに予測する3Dオブジェクト検出は、認識システムの重要な部分である。
本稿では,自律運転における3次元物体検出技術の進歩を概観する。
論文 参考訳(メタデータ) (2022-06-19T19:43:11Z) - Conquering Ghosts: Relation Learning for Information Reliability
Representation and End-to-End Robust Navigation [0.0]
環境障害は、実際の自動運転アプリケーションでは避けられない。
主な問題のひとつは、偽陽性検出、すなわち、実際に存在しない、または間違った位置に発生するゴーストオブジェクト(例えば、存在しない車両など)である。
従来のナビゲーション手法は、検出された全てのオブジェクトを安全のために避ける傾向にある。
潜在的な解決策は、シナリオ全体間の関係学習を通じてゴーストを検出し、統合されたエンドツーエンドナビゲーションシステムを開発することである。
論文 参考訳(メタデータ) (2022-03-14T14:11:12Z) - Dynamic and Static Object Detection Considering Fusion Regions and
Point-wise Features [7.41540085468436]
本稿では,自動運転車の前方における静的・動的物体の検出手法を提案する。
われわれのアプローチは、検出された物体から、その位置、速度、方向などの他の特徴を得ることもできる。
提案手法の性能を示すために,ベンチマークデータセットと,自律プラットフォームから得られた実世界のデータを用いて評価する。
論文 参考訳(メタデータ) (2021-07-27T09:42:18Z) - VATLD: A Visual Analytics System to Assess, Understand and Improve
Traffic Light Detection [15.36267013724161]
本稿では,自律運転アプリケーションにおける交通信号検知器の精度とロバスト性を評価・理解・改善する視覚分析システム,VATLDを提案する。
歪んだ表現学習は、人間に親しみやすい視覚的要約で人間の認知を強化するために、データ意味を抽出する。
また、視覚分析システムであるVATLDによる様々な性能改善戦略の有効性を実証し、自律運転における安全クリティカルな応用の実践的意義を示す。
論文 参考訳(メタデータ) (2020-09-27T22:39:00Z) - Training-free Monocular 3D Event Detection System for Traffic
Surveillance [93.65240041833319]
既存のイベント検出システムは、主に学習ベースであり、大量のトレーニングデータが利用可能な場合、十分なパフォーマンスを実現している。
現実のシナリオでは、十分なラベル付きトレーニングデータの収集は高価であり、時には不可能である。
本稿では,交通監視のためのトレーニング不要な単眼3Dイベント検出システムを提案する。
論文 参考訳(メタデータ) (2020-02-01T04:42:57Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。