論文の概要: DeepIPC: Deeply Integrated Perception and Control for an Autonomous
Vehicle in Real Environments
- arxiv url: http://arxiv.org/abs/2207.09934v4
- Date: Wed, 5 Apr 2023 15:15:08 GMT
- ステータス: 処理完了
- システム内更新日: 2023-04-06 16:36:56.515113
- Title: DeepIPC: Deeply Integrated Perception and Control for an Autonomous
Vehicle in Real Environments
- Title(参考訳): deepipc: 実環境における自律走行車の深い統合的知覚と制御
- Authors: Oskar Natan and Jun Miura
- Abstract要約: DeepIPCは、車両の運転における知覚と制御の両方のタスクを処理するエンドツーエンドの自動運転モデルである。
実環境における各種条件下での運転記録の予測と自動走行を行うことにより,モデルの評価を行った。
- 参考スコア(独自算出の注目度): 2.512827436728378
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We propose DeepIPC, an end-to-end autonomous driving model that handles both
perception and control tasks in driving a vehicle. The model consists of two
main parts, perception and controller modules. The perception module takes an
RGBD image to perform semantic segmentation and bird's eye view (BEV) semantic
mapping along with providing their encoded features. Meanwhile, the controller
module processes these features with the measurement of GNSS locations and
angular speed to estimate waypoints that come with latent features. Then, two
different agents are used to translate waypoints and latent features into a set
of navigational controls to drive the vehicle. The model is evaluated by
predicting driving records and performing automated driving under various
conditions in real environments. The experimental results show that DeepIPC
achieves the best drivability and multi-task performance even with fewer
parameters compared to the other models. Codes are available at
https://github.com/oskarnatan/DeepIPC.
- Abstract(参考訳): 我々は、車両の運転における知覚と制御タスクの両方を処理するエンドツーエンドの自動運転モデルであるdeepipcを提案する。
モデルは2つの主要部分、知覚モジュールとコントローラモジュールから構成される。
知覚モジュールは、RGBDイメージを使用してセマンティックセグメンテーションと鳥の目視(BEV)セマンティックマッピングを行い、そのエンコードされた特徴を提供する。
一方、コントローラモジュールは、これらの特徴をGNSS位置の測定と角速度で処理し、遅延する特徴を持つウェイポイントを推定する。
次に、2つの異なるエージェントを使用して、ウェイポイントと潜伏した特徴を、車両を駆動する一連のナビゲーション制御に翻訳する。
実環境における各種条件下での運転記録の予測と自動走行を行うことにより,モデルの評価を行った。
実験結果から,DeepIPCは,他のモデルと比較してパラメータが少ない場合でも,最良の乾燥性およびマルチタスク性能が得られることが示された。
コードはhttps://github.com/oskarnatan/DeepIPCで入手できる。
関連論文リスト
- Hierarchical End-to-End Autonomous Driving: Integrating BEV Perception with Deep Reinforcement Learning [23.21761407287525]
エンドツーエンドの自動運転は、従来のモジュラーパイプラインに代わる合理化された代替手段を提供する。
深層強化学習(Dep Reinforcement Learning, DRL)は、最近この分野で注目を集めている。
DRL特徴抽出ネットワークを認識フェーズに直接マッピングすることで、このギャップを埋める。
論文 参考訳(メタデータ) (2024-09-26T09:14:16Z) - Autonomous Vehicle Controllers From End-to-End Differentiable Simulation [60.05963742334746]
そこで我々は,AVコントローラのトレーニングにAPG(analytic Policy gradients)アプローチを適用可能なシミュレータを提案し,その設計を行う。
提案するフレームワークは, エージェントがより根底的なポリシーを学ぶのを助けるために, 環境力学の勾配を役立てる, エンド・ツー・エンドの訓練ループに, 微分可能シミュレータを組み込む。
ダイナミクスにおけるパフォーマンスとノイズに対する堅牢性の大幅な改善と、全体としてより直感的なヒューマンライクな処理が見られます。
論文 参考訳(メタデータ) (2024-09-12T11:50:06Z) - CoVLA: Comprehensive Vision-Language-Action Dataset for Autonomous Driving [1.727597257312416]
CoVLA(Comprehensive Vision-Language-Action)データセットは、80時間以上にわたる現実世界の運転ビデオで構成されている。
このデータセットは、堅牢で解釈可能で、データ駆動の自動運転システムのためのフレームワークを確立する。
論文 参考訳(メタデータ) (2024-08-19T09:53:49Z) - Drive Anywhere: Generalizable End-to-end Autonomous Driving with
Multi-modal Foundation Models [114.69732301904419]
本稿では、画像とテキストで検索可能な表現から、運転決定を提供することができる、エンドツーエンドのオープンセット(環境/シーン)自律運転を適用するアプローチを提案する。
当社のアプローチでは, 多様なテストにおいて非並列的な結果を示すと同時に, アウト・オブ・ディストリビューションの状況において, はるかに高いロバスト性を実現している。
論文 参考訳(メタデータ) (2023-10-26T17:56:35Z) - DeepIPCv2: LiDAR-powered Robust Environmental Perception and Navigational Control for Autonomous Vehicle [7.642646077340124]
DeepIPCv2は、より堅牢な乾燥性のためにLiDARセンサーを使用して環境を知覚する自律運転モデルである。
DeepIPCv2は、LiDAR点雲の集合を主知覚入力とする。
論文 参考訳(メタデータ) (2023-07-13T09:23:21Z) - Enhancing Navigation Benchmarking and Perception Data Generation for
Row-based Crops in Simulation [0.3518016233072556]
本稿では,セマンティックセグメンテーションネットワークを学習するための合成データセットと,ナビゲーションアルゴリズムを高速に評価するための仮想シナリオのコレクションを提案する。
異なるフィールドジオメトリと特徴を探索するための自動パラメトリック手法が開発されている。
シミュレーションフレームワークとデータセットは、異なる作物のディープセグメンテーションネットワークをトレーニングし、その結果のナビゲーションをベンチマークすることで評価されている。
論文 参考訳(メタデータ) (2023-06-27T14:46:09Z) - TrafficBots: Towards World Models for Autonomous Driving Simulation and
Motion Prediction [149.5716746789134]
我々は,データ駆動型交通シミュレーションを世界モデルとして定式化できることを示した。
動作予測とエンドツーエンドの運転に基づくマルチエージェントポリシーであるTrafficBotsを紹介する。
オープンモーションデータセットの実験は、TrafficBotsが現実的なマルチエージェント動作をシミュレートできることを示している。
論文 参考訳(メタデータ) (2023-03-07T18:28:41Z) - Generative AI-empowered Simulation for Autonomous Driving in Vehicular
Mixed Reality Metaverses [130.15554653948897]
車両混合現実(MR)メタバースでは、物理的実体と仮想実体の間の距離を克服することができる。
現実的なデータ収集と物理世界からの融合による大規模交通・運転シミュレーションは困難かつコストがかかる。
生成AIを利用して、無制限の条件付きトラフィックを合成し、シミュレーションでデータを駆動する自律運転アーキテクチャを提案する。
論文 参考訳(メタデータ) (2023-02-16T16:54:10Z) - Tackling Real-World Autonomous Driving using Deep Reinforcement Learning [63.3756530844707]
本研究では,加速と操舵角度を予測するニューラルネットワークを学習するモデルレスディープ強化学習プランナを提案する。
実際の自動運転車にシステムをデプロイするために、我々は小さなニューラルネットワークで表されるモジュールも開発する。
論文 参考訳(メタデータ) (2022-07-05T16:33:20Z) - Fully End-to-end Autonomous Driving with Semantic Depth Cloud Mapping
and Multi-Agent [2.512827436728378]
本稿では,エンド・ツー・エンドとマルチタスクの学習方法を用いて学習した新しいディープラーニングモデルを提案する。
このモデルは,CARLAシミュレータ上で,現実の環境を模倣するために,通常の状況と異なる天候のシナリオを用いて評価する。
論文 参考訳(メタデータ) (2022-04-12T03:57:01Z) - DriveGAN: Towards a Controllable High-Quality Neural Simulation [147.6822288981004]
DriveGANと呼ばれる新しい高品質のニューラルシミュレータを紹介します。
DriveGANは、異なるコンポーネントを監督なしで切り離すことによって制御性を達成する。
実世界の運転データ160時間を含む複数のデータセットでdriveganをトレーニングします。
論文 参考訳(メタデータ) (2021-04-30T15:30:05Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。