論文の概要: The NVIDIA PilotNet Experiments
- arxiv url: http://arxiv.org/abs/2010.08776v1
- Date: Sat, 17 Oct 2020 12:25:18 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-06 09:03:22.496189
- Title: The NVIDIA PilotNet Experiments
- Title(参考訳): NVIDIA PilotNetの実験
- Authors: Mariusz Bojarski, Chenyi Chen, Joyjit Daw, Alperen De\u{g}irmenci,
Joya Deri, Bernhard Firner, Beat Flepp, Sachin Gogri, Jesse Hong, Lawrence
Jackel, Zhenhua Jia, BJ Lee, Bo Liu, Fei Liu, Urs Muller, Samuel Payne,
Nischal Kota Nagendra Prasad, Artem Provodin, John Roach, Timur Rvachov, Neha
Tadimeti, Jesper van Engelen, Haiguang Wen, Eric Yang, and Zongyi Yang
- Abstract要約: 4年前、PilotNetと呼ばれる実験システムが、高速道路に沿って自動運転車を操縦する最初のNVIDIAシステムになった。
単一ディープニューラルネットワーク(DNN)は、画素を入力とし、所望の車両軌道を出力として生成する。
この文書では、ニュージャージー州ホルムデルのNVIDIA PilotNetグループによって過去5年間に実施されたPilotNetレーン維持の取り組みについて述べています。
- 参考スコア(独自算出の注目度): 5.013775931547319
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Four years ago, an experimental system known as PilotNet became the first
NVIDIA system to steer an autonomous car along a roadway. This system
represents a departure from the classical approach for self-driving in which
the process is manually decomposed into a series of modules, each performing a
different task. In PilotNet, on the other hand, a single deep neural network
(DNN) takes pixels as input and produces a desired vehicle trajectory as
output; there are no distinct internal modules connected by human-designed
interfaces. We believe that handcrafted interfaces ultimately limit performance
by restricting information flow through the system and that a learned approach,
in combination with other artificial intelligence systems that add redundancy,
will lead to better overall performing systems. We continue to conduct research
toward that goal.
This document describes the PilotNet lane-keeping effort, carried out over
the past five years by our NVIDIA PilotNet group in Holmdel, New Jersey. Here
we present a snapshot of system status in mid-2020 and highlight some of the
work done by the PilotNet group.
- Abstract(参考訳): 4年前、pilotnetと呼ばれる実験システムが、道路に沿って自動運転車を操縦する最初のnvidiaシステムになった。
このシステムは、プロセスが手動で一連のモジュールに分解され、それぞれが異なるタスクを実行する、従来の自動運転アプローチから逸脱している。
一方、PilotNetでは、単一のディープニューラルネットワーク(DNN)が入力としてピクセルを取り込み、出力として所望の車両軌道を生成する。
手作りのインターフェースは最終的に、システム内の情報フローを制限することでパフォーマンスを制限し、学習されたアプローチは、冗長性のある他の人工知能システムと組み合わせることで、システム全体のパフォーマンスが向上すると信じています。
私たちはその目標に向けて研究を続けます。
この文書では、ニュージャージー州ホルムデルのNVIDIA PilotNetグループによって過去5年間に実施されたPilotNetレーン維持の取り組みについて述べています。
ここでは、2020年半ばのシステムステータスのスナップショットを示し、pilotnet groupによる作業のいくつかを強調する。
関連論文リスト
- Autonomous Driving with a Deep Dual-Model Solution for Steering and Braking Control [0.0]
自動車のブレーキとステアリングを組み合わせた2つのディープニューラルネットワークを用いたデュアルモデルソリューションを提案する。
NVIDIAのPilotNetモデルを独自のネットワーク設計で修正し、モデルパラメータの数とメモリフットプリントを約60%削減しました。
シミュレーション環境で評価すると、両方の自律運転システムは、修正されたPilotNetモデルと、元のPilotNetモデルを用いたステアリングの両方を使用しており、同じレベルの自律運転性能を示している。
論文 参考訳(メタデータ) (2024-05-10T13:39:22Z) - DriveMLM: Aligning Multi-Modal Large Language Models with Behavioral
Planning States for Autonomous Driving [69.82743399946371]
DriveMLMは、現実的なシミュレータでクローズループの自律運転を実行するためのフレームワークである。
モジュールADシステムの動作計画モジュールをモデル化するために,MLLM (Multi-modal LLM) を用いる。
このモデルは、Apolloのような既存のADシステムでプラグイン・アンド・プレイすることで、クローズループ運転を行うことができる。
論文 参考訳(メタデータ) (2023-12-14T18:59:05Z) - LLM4Drive: A Survey of Large Language Models for Autonomous Driving [67.843551583229]
大規模言語モデル(LLM)は、文脈理解、論理的推論、回答生成などの能力を示した。
本稿では,自動走行のための大規模言語モデル (LLM4AD) に関する研究ラインを体系的にレビューする。
論文 参考訳(メタデータ) (2023-11-02T07:23:33Z) - LaksNet: an end-to-end deep learning model for self-driving cars in
Udacity simulator [10.55169962608886]
我々はLaksNetと呼ばれる新しい効果的畳み込みニューラルネットワークモデルを提案する。
我々のモデルは、シミュレーターのトラックを降りることなく走行する車の走行時間において、既存のImageNetやNVIDIAモデルよりも優れています。
論文 参考訳(メタデータ) (2023-10-24T18:11:25Z) - SuperDriverAI: Towards Design and Implementation for End-to-End
Learning-based Autonomous Driving [0.0]
我々はSuperDriver AIというエンド・ツー・エンドの学習に基づく自律走行システムを提案する。
Deep Neural Networks (DNN)は、経験豊富な人間ドライバーから運転行動とポリシーを学び、運転操作を決定する。
我々は東京の1つの運転シナリオで150回の走行を収集し、現実世界の車両でSuperDriver AIのデモを見せた。
論文 参考訳(メタデータ) (2023-05-14T10:13:58Z) - Level 2 Autonomous Driving on a Single Device: Diving into the Devils of
Openpilot [112.21008828205409]
Comma.aiは、1台のカメラとボードを内蔵した999ドルのアフターマーケットデバイスがL2シナリオを処理する能力を持っていると主張している。
Comma.aiがリリースした全システムのオープンソースソフトウェアとともに、プロジェクトはOpenpilotと名付けられた。
このレポートでは、最新の知見を公開し、産業製品レベルでのエンドツーエンドの自動運転という、新たな視点について光を当てたいと思います。
論文 参考訳(メタデータ) (2022-06-16T13:43:52Z) - Trajectory-guided Control Prediction for End-to-end Autonomous Driving:
A Simple yet Strong Baseline [96.31941517446859]
現在のエンドツーエンドの自律運転法は、計画された軌道に基づいてコントローラを実行するか、直接制御予測を行う。
我々の統合されたアプローチには、それぞれ軌道計画と直接制御のための2つの枝があります。
CARLAシミュレータを用いて閉ループ都市運転環境の評価を行った。
論文 参考訳(メタデータ) (2022-06-16T12:42:44Z) - COOPERNAUT: End-to-End Driving with Cooperative Perception for Networked
Vehicles [54.61668577827041]
本稿では,車間認識を用いたエンドツーエンド学習モデルであるCOOPERNAUTを紹介する。
われわれのAutoCastSim実験は、我々の協調知覚駆動モデルが平均成功率を40%向上させることを示唆している。
論文 参考訳(メタデータ) (2022-05-04T17:55:12Z) - AI-as-a-Service Toolkit for Human-Centered Intelligence in Autonomous
Driving [13.575818872875637]
本稿では,H2020 TEACHINGプロジェクトで開発されたAI-as-a-serviceツールキットの概念実証実装を提案する。
自動運転者のストレス認識アルゴリズムの出力に応じて自律運転パーソナライズシステムを実装する。
論文 参考訳(メタデータ) (2022-02-03T15:41:43Z) - An Intelligent Self-driving Truck System For Highway Transportation [81.12838700312308]
本稿では,インテリジェントな自動運転トラックシステムについて紹介する。
提案システムは,1)テストシナリオにおける現実的なトラフィックフローを生成する現実的なトラフィックシミュレーションモジュール,2)実環境における実際のトラックの応答を模倣するために設計,評価された高忠実度トラックモデル,の3つの主要コンポーネントから構成される。
また,提案するシステムを実車に展開し,実車間ギャップを緩和するシステムの能力を示す実物実験を行う。
論文 参考訳(メタデータ) (2021-12-31T04:54:13Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。