論文の概要: Vision-based Perception for Autonomous Vehicles in Obstacle Avoidance Scenarios
- arxiv url: http://arxiv.org/abs/2507.12449v1
- Date: Wed, 16 Jul 2025 17:41:14 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-07-17 19:00:11.504945
- Title: Vision-based Perception for Autonomous Vehicles in Obstacle Avoidance Scenarios
- Title(参考訳): 障害物回避シナリオにおける視覚に基づく自動運転車の認識
- Authors: Van-Hoang-Anh Phan, Chi-Tam Nguyen, Doan-Trung Au, Thanh-Danh Phan, Minh-Thien Duong, My-Ha Le,
- Abstract要約: 本稿では,カメラのみの認識モジュールとFrenet-Pure Pursuitに基づく計画戦略を活用する,効率的な障害物回避パイプラインを提案する。
コンピュータビジョンの進歩を統合することで、オブジェクト検出にYOLOv11、Depth Anything V2のような最先端のモノクロ深度推定モデルを用いてオブジェクト距離を推定する。
このシステムは、大学キャンパスの様々なシナリオで評価され、様々な障害に対処し、自律的なナビゲーションを強化する効果を実証している。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Obstacle avoidance is essential for ensuring the safety of autonomous vehicles. Accurate perception and motion planning are crucial to enabling vehicles to navigate complex environments while avoiding collisions. In this paper, we propose an efficient obstacle avoidance pipeline that leverages a camera-only perception module and a Frenet-Pure Pursuit-based planning strategy. By integrating advancements in computer vision, the system utilizes YOLOv11 for object detection and state-of-the-art monocular depth estimation models, such as Depth Anything V2, to estimate object distances. A comparative analysis of these models provides valuable insights into their accuracy, efficiency, and robustness in real-world conditions. The system is evaluated in diverse scenarios on a university campus, demonstrating its effectiveness in handling various obstacles and enhancing autonomous navigation. The video presenting the results of the obstacle avoidance experiments is available at: https://www.youtube.com/watch?v=FoXiO5S_tA8
- Abstract(参考訳): 障害物回避は自動運転車の安全性を確保するために不可欠である。
正確な知覚と動きの計画は、衝突を避けながら車両が複雑な環境をナビゲートできるようにするために不可欠である。
本稿では,カメラのみの認識モジュールとFrenet-Pure Pursuitに基づく計画戦略を活用する,効率的な障害物回避パイプラインを提案する。
コンピュータビジョンの進歩を統合することで、オブジェクト検出にYOLOv11、Depth Anything V2のような最先端のモノクロ深度推定モデルを用いてオブジェクト距離を推定する。
これらのモデルの比較分析は、実世界の状況におけるそれらの正確性、効率、堅牢性に関する貴重な洞察を提供する。
このシステムは、大学キャンパスの様々なシナリオで評価され、様々な障害に対処し、自律的なナビゲーションを強化する効果を実証している。
障害物回避実験の結果を示すビデオは、https://www.youtube.com/watch?
v=FoXiO5S_tA8
関連論文リスト
- An Embedded Real-time Object Alert System for Visually Impaired: A Monocular Depth Estimation based Approach through Computer Vision [0.0]
バングラデシュの都市では、視覚障害者は日々の通勤で重大な課題に直面している。
近距離で物体の視覚障害を事前に警告できるシステムを開発する上で、最重要課題である。
提案システムでは,近い距離に存在する物体に対して個人に警告を行うことができる。
論文 参考訳(メタデータ) (2025-07-10T20:55:22Z) - NOVA: Navigation via Object-Centric Visual Autonomy for High-Speed Target Tracking in Unstructured GPS-Denied Environments [56.35569661650558]
我々はNOVAというオブジェクト中心のフレームワークを導入し、ロバストな目標追跡と衝突認識ナビゲーションを可能にした。
グローバルマップを構築するのではなく、NOVAはターゲットの参照フレーム内での知覚、推定、制御を定式化する。
我々は,都市迷路や森林の小道,間欠的なGPS損失を伴う建物内の繰り返し遷移など,現実の挑戦的なシナリオにまたがってNOVAを検証する。
論文 参考訳(メタデータ) (2025-06-23T14:28:30Z) - ViVa-SAFELAND: a New Freeware for Safe Validation of Vision-based Navigation in Aerial Vehicles [0.0]
ViVa-SAFELANDは、航空車両の視覚ベースのナビゲーション戦略のテストと評価を目的とした、オープンソースのソフトウェアライブラリである。
ViVa-SAFELANDは、異なるビジュアルナビゲーションソリューションを評価し比較するための、新しい、安全で、シンプルで、公正な比較ベースラインを提供する。
深層学習を用いた自律パイロットの訓練に有用である。
論文 参考訳(メタデータ) (2025-03-18T20:48:50Z) - Real-Time Detection and Analysis of Vehicles and Pedestrians using Deep Learning [0.0]
現在の交通監視システムは、小さな物体や歩行者をリアルタイムで効果的に認識する上で大きな困難に直面している。
本研究は、車や人の正確なリアルタイム認識のための複雑な視覚入力を処理できる高度なディープラーニングフレームワークの作成と検証に重点を置いている。
YOLOv8 大型モデルは、特に歩行者認識において最も効果的で、精度と堅牢性が高いことが判明した。
論文 参考訳(メタデータ) (2024-04-11T18:42:14Z) - The Integration of Prediction and Planning in Deep Learning Automated Driving Systems: A Review [43.30610493968783]
我々は、最先端のディープラーニングベースの計画システムについてレビューし、どのように予測を統合するかに焦点を当てる。
異なる統合原則の意味、強み、限界について論じる。
論文 参考訳(メタデータ) (2023-08-10T17:53:03Z) - Camera-Radar Perception for Autonomous Vehicles and ADAS: Concepts,
Datasets and Metrics [77.34726150561087]
本研究の目的は、ADASおよび自動運転車のカメラおよびレーダーによる認識の現在のシナリオに関する研究を行うことである。
両センサと融合に関する概念と特徴を提示する。
本稿では、ディープラーニングに基づく検出とセグメンテーションタスクの概要と、車両の認識における主要なデータセット、メトリクス、課題、オープンな質問について説明する。
論文 参考訳(メタデータ) (2023-03-08T00:48:32Z) - Learning Deep Sensorimotor Policies for Vision-based Autonomous Drone
Racing [52.50284630866713]
既存のシステムは、状態推定、計画、制御のために手作業によるコンポーネントを必要とすることが多い。
本稿では、深層感触者ポリシーを学習することで、視覚に基づく自律ドローンレース問題に取り組む。
論文 参考訳(メタデータ) (2022-10-26T19:03:17Z) - Conquering Ghosts: Relation Learning for Information Reliability Representation and End-to-End Robust Navigation [2.8150193813266546]
環境障害は、実際の自動運転アプリケーションでは避けられない。
主な問題のひとつは、偽陽性検出、すなわち、実際に存在しない、または間違った位置に発生するゴーストオブジェクト(例えば、存在しない車両など)である。
従来のナビゲーション手法は、検出された全てのオブジェクトを安全のために避ける傾向にある。
潜在的な解決策は、シナリオ全体間の関係学習を通じてゴーストを検出し、統合されたエンドツーエンドナビゲーションシステムを開発することである。
論文 参考訳(メタデータ) (2022-03-14T14:11:12Z) - Differentiable Control Barrier Functions for Vision-based End-to-End
Autonomous Driving [100.57791628642624]
本稿では,視覚に基づくエンドツーエンド自動運転のための安全保証学習フレームワークを提案する。
我々は、勾配降下によりエンドツーエンドに訓練された微分制御バリア関数(dCBF)を備えた学習システムを設計する。
論文 参考訳(メタデータ) (2022-03-04T16:14:33Z) - Safety-aware Motion Prediction with Unseen Vehicles for Autonomous
Driving [104.32241082170044]
本研究では,無人運転用無人車を用いた新しい作業,安全を意識した動作予測手法について検討する。
既存の車両の軌道予測タスクとは異なり、占有率マップの予測が目的である。
私たちのアプローチは、ほとんどの場合、目に見えない車両の存在を予測できる最初の方法です。
論文 参考訳(メタデータ) (2021-09-03T13:33:33Z) - Vision-Based Mobile Robotics Obstacle Avoidance With Deep Reinforcement
Learning [49.04274612323564]
障害物回避は、移動ロボットの自律ナビゲーションのための根本的かつ困難な問題です。
本稿では,ロボットが単一眼カメラにのみ依存しなければならない単純な3D環境における障害物回避の問題を検討する。
データ駆動型エンドツーエンドディープラーニングアプローチとして,障害回避問題に取り組む。
論文 参考訳(メタデータ) (2021-03-08T13:05:46Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。