論文の概要: Efficient Perception, Planning, and Control Algorithms for Vision-Based
Automated Vehicles
- arxiv url: http://arxiv.org/abs/2209.07042v1
- Date: Thu, 15 Sep 2022 04:51:17 GMT
- ステータス: 処理完了
- システム内更新日: 2022-09-16 12:23:13.939983
- Title: Efficient Perception, Planning, and Control Algorithms for Vision-Based
Automated Vehicles
- Title(参考訳): ビジョンベース自動車両の効率的な認識・計画・制御アルゴリズム
- Authors: Der-Hau Lee
- Abstract要約: 本稿では,視覚に基づく自動車両の運転のための効率的な枠組みを提案する。
前面カメラといくつかの安価なレーダーは、環境認識を駆動するために必要なセンサーである。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Owing to resource limitations, efficient computation systems have long been a
critical demand for those designing autonomous vehicles. Additionally, sensor
cost and size restrict the development of self-driving cars. This paper
presents an efficient framework for the operation of vision-based automatic
vehicles; a front-facing camera and a few inexpensive radars are the required
sensors for driving environment perception. The proposed algorithm comprises a
multi-task UNet (MTUNet) network for extracting image features and constrained
iterative linear quadratic regulator (CILQR) modules for rapid lateral and
longitudinal motion planning. The MTUNet is designed to simultaneously solve
lane line segmentation, ego vehicle heading angle regression, road type
classification, and traffic object detection tasks at an approximate speed of
40 FPS when an RGB image of size 228 x 228 is fed into it. The CILQR algorithms
then take processed MTUNet outputs and radar data as their input to produce
driving commands for lateral and longitudinal vehicle automation guidance; both
optimal control problems can be solved within 1 ms. The proposed CILQR
controllers are shown to be more efficient than the sequential quadratic
programming (SQP) methods and can collaborate with the MTUNet to drive a car
autonomously in unseen simulation environments for lane-keeping and
car-following maneuvers. Our experiments demonstrate that the proposed
autonomous driving system is applicable to modern automobiles.
- Abstract(参考訳): 資源の制限のため、効率的な計算システムは、自動運転車の設計にとって長い間重要な需要であった。
さらに、センサーのコストとサイズは、自動運転車の開発を制限する。
本稿では,正面カメラといくつかの安価なレーダーが環境認識の駆動に必要なセンサである,視覚に基づく自動車両の運用のための効率的な枠組みを提案する。
提案アルゴリズムは、画像特徴を抽出するマルチタスクUTUNetと、高速な横方向および縦方向の動作計画のための制約付き反復線形二次制御器(CILQR)モジュールからなる。
MTUNetは、大きさ228×228のRGB画像が入力されたときに、車線分割、車線方向角の回帰、道路型分類、交通物体検出タスクを40FPSの近似速度で同時に解くように設計されている。
次に、CILQRアルゴリズムは、処理されたMTUNet出力とレーダデータを入力として、横方向および縦方向の車両自動化誘導のための運転指令を生成する。両者の最適制御問題は、1ms以内で解決可能である。提案されたCILQRコントローラは、逐次二次プログラミング(SQP)手法よりも効率的であることが示され、MTUNetと協調して、車線維持および車両追従操作のための見知らぬシミュレーション環境において、自律的に車を運転することができる。
提案する自律運転システムは,現代の自動車に適用可能であることを示す。
関連論文リスト
- Partial End-to-end Reinforcement Learning for Robustness Against Modelling Error in Autonomous Racing [0.0]
本稿では、自動運転車における強化学習(RL)ソリューションの性能向上の問題に対処する。
計画タスクと制御タスクを分離する部分的なエンドツーエンドアルゴリズムを提案する。
従来の制御器のロバスト性を活用することにより,本アルゴリズムは標準のエンドツーエンドアルゴリズムよりもモデルミスマッチに対するロバスト性を向上する。
論文 参考訳(メタデータ) (2023-12-11T14:27:10Z) - Convergence of Communications, Control, and Machine Learning for Secure
and Autonomous Vehicle Navigation [78.60496411542549]
接続された自動運転車(CAV)は、交通事故におけるヒューマンエラーを低減し、道路効率を向上し、様々なタスクを実行する。これらのメリットを享受するためには、CAVが目標とする目的地へ自律的にナビゲートする必要がある。
本稿では,通信理論,制御理論,機械学習の収束を利用して,効果的なCAVナビゲーションを実現する手法を提案する。
論文 参考訳(メタデータ) (2023-07-05T21:38:36Z) - FastRLAP: A System for Learning High-Speed Driving via Deep RL and
Autonomous Practicing [71.76084256567599]
本稿では、自律型小型RCカーを強化学習(RL)を用いた視覚的観察から積極的に駆動するシステムを提案する。
我々のシステムであるFastRLAP (faster lap)は、人間の介入なしに、シミュレーションや専門家によるデモンストレーションを必要とせず、現実世界で自律的に訓練する。
結果として得られたポリシーは、タイミングブレーキや回転の加速度などの突発的な運転スキルを示し、ロボットの動きを妨げる領域を避け、トレーニングの途中で同様の1対1のインタフェースを使用して人間のドライバーのパフォーマンスにアプローチする。
論文 参考訳(メタデータ) (2023-04-19T17:33:47Z) - Motion Planning and Control for Multi Vehicle Autonomous Racing at High
Speeds [100.61456258283245]
本稿では,自律走行のための多層移動計画と制御アーキテクチャを提案する。
提案手法はダララのAV-21レースカーに適用され、楕円形のレーストラックで25$m/s2$まで加速試験された。
論文 参考訳(メタデータ) (2022-07-22T15:16:54Z) - Tackling Real-World Autonomous Driving using Deep Reinforcement Learning [63.3756530844707]
本研究では,加速と操舵角度を予測するニューラルネットワークを学習するモデルレスディープ強化学習プランナを提案する。
実際の自動運転車にシステムをデプロイするために、我々は小さなニューラルネットワークで表されるモジュールも開発する。
論文 参考訳(メタデータ) (2022-07-05T16:33:20Z) - COOPERNAUT: End-to-End Driving with Cooperative Perception for Networked
Vehicles [54.61668577827041]
本稿では,車間認識を用いたエンドツーエンド学習モデルであるCOOPERNAUTを紹介する。
われわれのAutoCastSim実験は、我々の協調知覚駆動モデルが平均成功率を40%向上させることを示唆している。
論文 参考訳(メタデータ) (2022-05-04T17:55:12Z) - Monocular Vision-based Prediction of Cut-in Maneuvers with LSTM Networks [0.0]
本研究では,エゴレーンで発生する潜在的に危険なカットイン動作を予測する手法を提案する。
我々は、1台の車載RGBカメラのみを使用するコンピュータビジョンベースのアプローチに従う。
本アルゴリズムは,CNNに基づく車両検出・追跡ステップとLSTMに基づく操縦分類ステップから構成される。
論文 参考訳(メタデータ) (2022-03-21T02:30:36Z) - The Multimodal Driver Monitoring Database: A Naturalistic Corpus to
Study Driver Attention [44.94118128276982]
スマートな車両は、人間の運転者の行動や行動を監視して、必要な時に警告や介入を行う必要がある。
深層学習とコンピュータビジョンの最近の進歩は、人間の行動や活動を監視する上で大きな約束を示しています。
運転関連タスクの予測に高性能を提供するモデルのトレーニングには、ドメイン内の膨大なデータが必要である。
論文 参考訳(メタデータ) (2020-12-23T16:37:17Z) - A Software Architecture for Autonomous Vehicles: Team LRM-B Entry in the
First CARLA Autonomous Driving Challenge [49.976633450740145]
本稿では,シミュレーション都市環境における自律走行車両のナビゲーション設計について述べる。
我々のアーキテクチャは、CARLA Autonomous Driving Challengeの要件を満たすために作られました。
論文 参考訳(メタデータ) (2020-10-23T18:07:48Z) - Leveraging the Capabilities of Connected and Autonomous Vehicles and
Multi-Agent Reinforcement Learning to Mitigate Highway Bottleneck Congestion [2.0010674945048468]
RLをベースとしたマルチエージェントCAV制御モデルを提案する。
その結果、CAVのシェアが10%以下である場合でも、CAVはハイウェイ交通のボトルネックを著しく軽減することができることが示唆された。
論文 参考訳(メタデータ) (2020-10-12T03:52:10Z) - Aggressive Perception-Aware Navigation using Deep Optical Flow Dynamics
and PixelMPC [21.81438321320149]
我々は,光学フローとロボットダイナミクスを組み合わせた深部光学フロー(DOF)ダイナミクスを導入する。
DOFダイナミクスを用いて、MPCはロボットの計画軌跡に関連画素の予測運動を明示的に組み込む。
DOFの実装はメモリ効率が良く、データ効率が良く、計算コストも安いので、MPCフレームワークでリアルタイムに計算することができる。
論文 参考訳(メタデータ) (2020-01-07T22:33:12Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。