論文の概要: Advancing Autonomous Driving Perception: Analysis of Sensor Fusion and Computer Vision Techniques
- arxiv url: http://arxiv.org/abs/2411.10535v1
- Date: Fri, 15 Nov 2024 19:11:58 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-11-19 14:27:34.938977
- Title: Advancing Autonomous Driving Perception: Analysis of Sensor Fusion and Computer Vision Techniques
- Title(参考訳): 自律走行知覚の促進:センサフュージョンとコンピュータビジョン技術の解析
- Authors: Urvishkumar Bharti, Vikram Shahapur,
- Abstract要約: このプロジェクトは、自動運転ロボットの理解とナビゲーション能力の向上に焦点を当てている。
既存の検出と追跡アルゴリズムを用いて、未知のマップ2Dマップへのより良いナビゲーションを実現する方法について検討する。
- 参考スコア(独自算出の注目度): 0.0
- License:
- Abstract: In autonomous driving, perception systems are piv otal as they interpret sensory data to understand the envi ronment, which is essential for decision-making and planning. Ensuring the safety of these perception systems is fundamental for achieving high-level autonomy, allowing us to confidently delegate driving and monitoring tasks to machines. This re port aims to enhance the safety of perception systems by examining and summarizing the latest advancements in vision based systems, and metrics for perception tasks in autonomous driving. The report also underscores significant achievements and recognized challenges faced by current research in this field. This project focuses on enhancing the understanding and navigation capabilities of self-driving robots through depth based perception and computer vision techniques. Specifically, it explores how we can perform better navigation into unknown map 2D map with existing detection and tracking algorithms and on top of that how depth based perception can enhance the navigation capabilities of the wheel based bots to improve autonomous driving perception.
- Abstract(参考訳): 自律運転においては、知覚システムは感覚データを解釈して、意思決定と計画に不可欠なエンビの否定を理解するため、pivオカルである。
これらの認識システムの安全性を確保することは、高いレベルの自律性を達成するための基本であり、運転と監視のタスクをマシンに確実に委譲できる。
このリポートは、視覚ベースシステムの最新の進歩と自律運転における知覚タスクのメトリクスを調べ、要約することで、知覚システムの安全性を高めることを目的としている。
この報告書は、この分野での現在の研究で直面する重要な成果と認識された課題も示している。
本研究は、深度に基づく認識とコンピュータビジョン技術を通して、自律ロボットの理解とナビゲーション能力の向上に焦点を当てる。
具体的には、既存の検出と追跡アルゴリズムを使って未知のマップ2Dマップにより良いナビゲーションを実行し、その上に、深度に基づく知覚が車輪ベースのボットのナビゲーション能力を強化し、自律的な運転知覚を改善する方法について検討する。
関連論文リスト
- A Comprehensive Review of 3D Object Detection in Autonomous Driving: Technological Advances and Future Directions [11.071271817366739]
3次元物体認識は、自律運転システムの開発において重要な要素となっている。
本稿では,カメラベース,LiDARベース,核融合検出技術を中心に,従来の3次元物体検出手法を概説する。
本稿では、時間知覚、占有グリッド、エンドツーエンド学習フレームワークなどの精度向上手法を含む今後の方向性について論じる。
論文 参考訳(メタデータ) (2024-08-28T01:08:33Z) - Panoptic Perception for Autonomous Driving: A Survey [0.0]
本調査では,典型的な汎視知覚モデルについて検討し,性能,応答性,資源利用量と比較した。
また、汎視的知覚で直面する一般的な課題を掘り下げ、将来の研究のための潜在的な軌道を探究する。
論文 参考訳(メタデータ) (2024-08-27T20:14:42Z) - Research on the Application of Computer Vision Based on Deep Learning in Autonomous Driving Technology [9.52658065214428]
本稿では、画像認識、リアルタイム目標追跡・分類、環境認識・意思決定支援、経路計画・ナビゲーションにおけるディープラーニングの適用について詳細に分析する。
提案システムでは,画像認識,目標追跡,分類の精度が98%を超え,高い性能と実用性を示す。
論文 参考訳(メタデータ) (2024-06-01T16:41:24Z) - Floor extraction and door detection for visually impaired guidance [78.94595951597344]
未知の環境で障害物のない経路を見つけることは、視覚障害者や自律ロボットにとって大きなナビゲーション問題である。
コンピュータビジョンシステムに基づく新しいデバイスは、障害のある人が安全な環境で未知の環境でナビゲートすることの難しさを克服するのに役立つ。
本研究では,視覚障害者のためのナビゲーションシステムの構築につながるセンサとアルゴリズムの組み合わせを提案する。
論文 参考訳(メタデータ) (2024-01-30T14:38:43Z) - Applications of Computer Vision in Autonomous Vehicles: Methods, Challenges and Future Directions [2.693342141713236]
本稿では,過去10年間に出版されたコンピュータビジョンと自動運転に関する論文をレビューする。
特に、まず自律運転システムの開発について検討し、各国の主要自動車メーカーによって開発されたこれらのシステムを要約する。
そこで, 深度推定, 物体検出, 車線検出, 信号認識など, 自律運転におけるコンピュータビジョン応用の概要を概観する。
論文 参考訳(メタデータ) (2023-11-15T16:41:18Z) - Camera-Radar Perception for Autonomous Vehicles and ADAS: Concepts,
Datasets and Metrics [77.34726150561087]
本研究の目的は、ADASおよび自動運転車のカメラおよびレーダーによる認識の現在のシナリオに関する研究を行うことである。
両センサと融合に関する概念と特徴を提示する。
本稿では、ディープラーニングに基づく検出とセグメンテーションタスクの概要と、車両の認識における主要なデータセット、メトリクス、課題、オープンな質問について説明する。
論文 参考訳(メタデータ) (2023-03-08T00:48:32Z) - Learning Deep Sensorimotor Policies for Vision-based Autonomous Drone
Racing [52.50284630866713]
既存のシステムは、状態推定、計画、制御のために手作業によるコンポーネントを必要とすることが多い。
本稿では、深層感触者ポリシーを学習することで、視覚に基づく自律ドローンレース問題に取り組む。
論文 参考訳(メタデータ) (2022-10-26T19:03:17Z) - Exploring Contextual Representation and Multi-Modality for End-to-End
Autonomous Driving [58.879758550901364]
最近の知覚システムは、センサー融合による空間理解を高めるが、しばしば完全な環境コンテキストを欠いている。
我々は,3台のカメラを統合し,人間の視野をエミュレートするフレームワークを導入し,トップダウンのバードアイビューセマンティックデータと組み合わせて文脈表現を強化する。
提案手法は, オープンループ設定において0.67mの変位誤差を達成し, nuScenesデータセットでは6.9%の精度で現在の手法を上回っている。
論文 参考訳(メタデータ) (2022-10-13T05:56:20Z) - Deep Learning for Embodied Vision Navigation: A Survey [108.13766213265069]
身体的視覚ナビゲーション」問題では、エージェントが3D環境をナビゲートする必要がある。
本稿では、総合的な文献調査を提供することで、視覚ナビゲーションの具体的分野における現在の研究の概要を確立することを試みる。
論文 参考訳(メタデータ) (2021-07-07T12:09:04Z) - Improving Robustness of Learning-based Autonomous Steering Using
Adversarial Images [58.287120077778205]
自動運転用画像入力における学習アルゴリズムw.r.tの堅牢性を解析するためのフレームワークについて紹介する。
感度分析の結果を用いて, 「操縦への学習」 タスクの総合的性能を向上させるアルゴリズムを提案する。
論文 参考訳(メタデータ) (2021-02-26T02:08:07Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。