論文の概要: DeepIPC: Deeply Integrated Perception and Control for an Autonomous
Vehicle in Real Environments
- arxiv url: http://arxiv.org/abs/2207.09934v6
- Date: Fri, 8 Mar 2024 05:40:12 GMT
- ステータス: 処理完了
- システム内更新日: 2024-03-11 23:56:58.280958
- Title: DeepIPC: Deeply Integrated Perception and Control for an Autonomous
Vehicle in Real Environments
- Title(参考訳): deepipc: 実環境における自律走行車の深い統合的知覚と制御
- Authors: Oskar Natan and Jun Miura
- Abstract要約: 本稿では,自動運転に適した新しいエンドツーエンドモデルであるDeepIPCを紹介する。
DeepIPCは知覚と制御タスクをシームレスに統合する。
本評価は,DeepIPCの乾燥性およびマルチタスク効率において優れた性能を示すものである。
- 参考スコア(独自算出の注目度): 9.028773906859541
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: In this work, we introduce DeepIPC, a novel end-to-end model tailored for
autonomous driving, which seamlessly integrates perception and control tasks.
Unlike traditional models that handle these tasks separately, DeepIPC
innovatively combines a perception module, which processes RGBD images for
semantic segmentation and generates bird's eye view (BEV) mappings, with a
controller module that utilizes these insights along with GNSS and angular
speed measurements to accurately predict navigational waypoints. This
integration allows DeepIPC to efficiently translate complex environmental data
into actionable driving commands. Our comprehensive evaluation demonstrates
DeepIPC's superior performance in terms of drivability and multi-task
efficiency across diverse real-world scenarios, setting a new benchmark for
end-to-end autonomous driving systems with a leaner model architecture. The
experimental results underscore DeepIPC's potential to significantly enhance
autonomous vehicular navigation, promising a step forward in the development of
autonomous driving technologies. For further insights and replication, we will
make our code and datasets available at https://github.com/oskarnatan/DeepIPC.
- Abstract(参考訳): 本研究では、自律運転に適した新しいエンドツーエンドモデルであるDeepIPCを紹介し、知覚と制御タスクをシームレスに統合する。
これらのタスクを別々に扱う従来のモデルとは異なり、DeepIPCは、意味的セグメンテーションのためにRGBDイメージを処理し、鳥の目視(BEV)マッピングを生成する知覚モジュールと、GNSSや角速度測定とともにこれらの洞察を利用してナビゲーションの方向を正確に予測するコントローラモジュールを革新的に組み合わせている。
この統合により、DeepIPCは複雑な環境データを効率的に実行可能な駆動コマンドに変換することができる。
我々は,DeepIPCのドライバビリティとマルチタスク効率の面での優れた性能を実世界のさまざまなシナリオで実証し,よりリーンなモデルアーキテクチャによるエンドツーエンドの自動運転システムの新しいベンチマークを設定した。
実験結果は、DeepIPCが自律車載ナビゲーションを大幅に強化する可能性を強調し、自動運転技術の発展に一歩前進することを約束している。
さらなる洞察とレプリケーションのために、コードとデータセットはhttps://github.com/oskarnatan/DeepIPC.comで公開します。
関連論文リスト
- Hierarchical End-to-End Autonomous Driving: Integrating BEV Perception with Deep Reinforcement Learning [23.21761407287525]
エンドツーエンドの自動運転は、従来のモジュラーパイプラインに代わる合理化された代替手段を提供する。
深層強化学習(Dep Reinforcement Learning, DRL)は、最近この分野で注目を集めている。
DRL特徴抽出ネットワークを認識フェーズに直接マッピングすることで、このギャップを埋める。
論文 参考訳(メタデータ) (2024-09-26T09:14:16Z) - Autonomous Vehicle Controllers From End-to-End Differentiable Simulation [60.05963742334746]
そこで我々は,AVコントローラのトレーニングにAPG(analytic Policy gradients)アプローチを適用可能なシミュレータを提案し,その設計を行う。
提案するフレームワークは, エージェントがより根底的なポリシーを学ぶのを助けるために, 環境力学の勾配を役立てる, エンド・ツー・エンドの訓練ループに, 微分可能シミュレータを組み込む。
ダイナミクスにおけるパフォーマンスとノイズに対する堅牢性の大幅な改善と、全体としてより直感的なヒューマンライクな処理が見られます。
論文 参考訳(メタデータ) (2024-09-12T11:50:06Z) - CoVLA: Comprehensive Vision-Language-Action Dataset for Autonomous Driving [1.727597257312416]
CoVLA(Comprehensive Vision-Language-Action)データセットは、80時間以上にわたる現実世界の運転ビデオで構成されている。
このデータセットは、堅牢で解釈可能で、データ駆動の自動運転システムのためのフレームワークを確立する。
論文 参考訳(メタデータ) (2024-08-19T09:53:49Z) - Drive Anywhere: Generalizable End-to-end Autonomous Driving with
Multi-modal Foundation Models [114.69732301904419]
本稿では、画像とテキストで検索可能な表現から、運転決定を提供することができる、エンドツーエンドのオープンセット(環境/シーン)自律運転を適用するアプローチを提案する。
当社のアプローチでは, 多様なテストにおいて非並列的な結果を示すと同時に, アウト・オブ・ディストリビューションの状況において, はるかに高いロバスト性を実現している。
論文 参考訳(メタデータ) (2023-10-26T17:56:35Z) - DeepIPCv2: LiDAR-powered Robust Environmental Perception and Navigational Control for Autonomous Vehicle [7.642646077340124]
DeepIPCv2は、より堅牢な乾燥性のためにLiDARセンサーを使用して環境を知覚する自律運転モデルである。
DeepIPCv2は、LiDAR点雲の集合を主知覚入力とする。
論文 参考訳(メタデータ) (2023-07-13T09:23:21Z) - Enhancing Navigation Benchmarking and Perception Data Generation for
Row-based Crops in Simulation [0.3518016233072556]
本稿では,セマンティックセグメンテーションネットワークを学習するための合成データセットと,ナビゲーションアルゴリズムを高速に評価するための仮想シナリオのコレクションを提案する。
異なるフィールドジオメトリと特徴を探索するための自動パラメトリック手法が開発されている。
シミュレーションフレームワークとデータセットは、異なる作物のディープセグメンテーションネットワークをトレーニングし、その結果のナビゲーションをベンチマークすることで評価されている。
論文 参考訳(メタデータ) (2023-06-27T14:46:09Z) - TrafficBots: Towards World Models for Autonomous Driving Simulation and
Motion Prediction [149.5716746789134]
我々は,データ駆動型交通シミュレーションを世界モデルとして定式化できることを示した。
動作予測とエンドツーエンドの運転に基づくマルチエージェントポリシーであるTrafficBotsを紹介する。
オープンモーションデータセットの実験は、TrafficBotsが現実的なマルチエージェント動作をシミュレートできることを示している。
論文 参考訳(メタデータ) (2023-03-07T18:28:41Z) - Generative AI-empowered Simulation for Autonomous Driving in Vehicular
Mixed Reality Metaverses [130.15554653948897]
車両混合現実(MR)メタバースでは、物理的実体と仮想実体の間の距離を克服することができる。
現実的なデータ収集と物理世界からの融合による大規模交通・運転シミュレーションは困難かつコストがかかる。
生成AIを利用して、無制限の条件付きトラフィックを合成し、シミュレーションでデータを駆動する自律運転アーキテクチャを提案する。
論文 参考訳(メタデータ) (2023-02-16T16:54:10Z) - Tackling Real-World Autonomous Driving using Deep Reinforcement Learning [63.3756530844707]
本研究では,加速と操舵角度を予測するニューラルネットワークを学習するモデルレスディープ強化学習プランナを提案する。
実際の自動運転車にシステムをデプロイするために、我々は小さなニューラルネットワークで表されるモジュールも開発する。
論文 参考訳(メタデータ) (2022-07-05T16:33:20Z) - Fully End-to-end Autonomous Driving with Semantic Depth Cloud Mapping
and Multi-Agent [2.512827436728378]
本稿では,エンド・ツー・エンドとマルチタスクの学習方法を用いて学習した新しいディープラーニングモデルを提案する。
このモデルは,CARLAシミュレータ上で,現実の環境を模倣するために,通常の状況と異なる天候のシナリオを用いて評価する。
論文 参考訳(メタデータ) (2022-04-12T03:57:01Z) - DriveGAN: Towards a Controllable High-Quality Neural Simulation [147.6822288981004]
DriveGANと呼ばれる新しい高品質のニューラルシミュレータを紹介します。
DriveGANは、異なるコンポーネントを監督なしで切り離すことによって制御性を達成する。
実世界の運転データ160時間を含む複数のデータセットでdriveganをトレーニングします。
論文 参考訳(メタデータ) (2021-04-30T15:30:05Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。