論文の概要: End-to-End Driving via Self-Supervised Imitation Learning Using Camera and LiDAR Data
- arxiv url: http://arxiv.org/abs/2308.14329v2
- Date: Thu, 31 Oct 2024 07:16:46 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-11-01 16:56:52.706979
- Title: End-to-End Driving via Self-Supervised Imitation Learning Using Camera and LiDAR Data
- Title(参考訳): カメラとLiDARデータを用いた自己監督的模倣学習によるエンドツーエンド運転
- Authors: Jin Bok Park, Jinkyu Lee, Muhyun Back, Hyunmin Han, David T. Ma, Sang Min Won, Sung Soo Hwang, Il Yong Chun,
- Abstract要約: 本論文は,E2E運転のための自己教師付き模倣学習(SSIL)として,最初の完全自己教師型学習フレームワークを提案する。
提案したSSILフレームワークは、コマンドデータを使用せずにE2E駆動ネットワークを学習できる。
3つの異なるベンチマークデータセットを用いた数値実験により,提案したSSILフレームワークは,教師付き学習と同等のE2E駆動精度を達成できることを示した。
- 参考スコア(独自算出の注目度): 6.849144123909844
- License:
- Abstract: In autonomous driving, the end-to-end (E2E) driving approach that predicts vehicle control signals directly from sensor data is rapidly gaining attention. To learn a safe E2E driving system, one needs an extensive amount of driving data and human intervention. Vehicle control data is constructed by many hours of human driving, and it is challenging to construct large vehicle control datasets. Often, publicly available driving datasets are collected with limited driving scenes, and collecting vehicle control data is only available by vehicle manufacturers. To address these challenges, this letter proposes the first fully self-supervised learning framework, self-supervised imitation learning (SSIL), for E2E driving, based on the self-supervised regression learning framework. The proposed SSIL framework can learn E2E driving networks without using driving command data. To construct pseudo steering angle data, proposed SSIL predicts a pseudo target from the vehicle's poses at the current and previous time points that are estimated with light detection and ranging sensors. In addition, we propose two modified E2E driving networks that predict driving commands depending on high-level instruction. Our numerical experiments with three different benchmark datasets demonstrate that the proposed SSIL framework achieves very comparable E2E driving accuracy with the supervised learning counterpart.
- Abstract(参考訳): 自動運転車では,センサデータから直接車両制御信号を予測するエンド・ツー・エンド(E2E)駆動方式が急速に注目されている。
安全なE2E運転システムを学ぶには、大量の運転データと人間の介入が必要である。
車両制御データは、人間の運転時間によって構築されており、大規模な車両制御データセットの構築は困難である。
一般に公開されている運転データセットは限られた運転シーンで収集され、車両制御データの収集は自動車メーカーによってのみ利用可能である。
これらの課題に対処するため、本稿では、自己教師付き回帰学習フレームワークに基づくE2E駆動のための、最初の完全自己教師付き学習フレームワークである自己教師型模倣学習(SSIL)を提案する。
提案したSSILフレームワークは、コマンドデータを使用せずにE2E駆動ネットワークを学習できる。
擬似ステアリング角データを構築するため,提案したSSILは,光検出および測光センサを用いて推定される現在および過去の時刻における車両の姿勢から擬似目標を予測した。
さらに,2つの改良されたE2E駆動ネットワークを提案する。
3つの異なるベンチマークデータセットを用いた数値実験により,提案したSSILフレームワークは,教師付き学習と同等のE2E駆動精度を達成できることを示した。
関連論文リスト
- DriveCoT: Integrating Chain-of-Thought Reasoning with End-to-End Driving [81.04174379726251]
本稿では,DriveCoTというエンド・ツー・エンドの運転データセットを総合的に収集する。
センサーデータ、制御決定、および推論プロセスを示すチェーン・オブ・シークレット・ラベルが含まれている。
我々は,私たちのデータセットに基づいてトレーニングされたDriveCoT-Agentと呼ばれるベースラインモデルを提案し,連鎖予測と最終決定を生成する。
論文 参考訳(メタデータ) (2024-03-25T17:59:01Z) - V2X-Lead: LiDAR-based End-to-End Autonomous Driving with
Vehicle-to-Everything Communication Integration [4.166623313248682]
本稿では,V2X(Vine-to-Everything)通信を統合したLiDARを用いたエンドツーエンド自動運転手法を提案する。
提案手法は,搭載したLiDARセンサとV2X通信データを融合させることにより,不完全な部分的観測を処理することを目的としている。
論文 参考訳(メタデータ) (2023-09-26T20:26:03Z) - DeepIPCv2: LiDAR-powered Robust Environmental Perception and Navigational Control for Autonomous Vehicle [7.642646077340124]
DeepIPCv2は、より堅牢な乾燥性のためにLiDARセンサーを使用して環境を知覚する自律運転モデルである。
DeepIPCv2は、LiDAR点雲の集合を主知覚入力とする。
論文 参考訳(メタデータ) (2023-07-13T09:23:21Z) - Unsupervised Driving Event Discovery Based on Vehicle CAN-data [62.997667081978825]
本研究は,車両CANデータのクラスタリングとセグメンテーションを同時に行うことで,一般的な運転イベントを教師なしで識別する手法である。
我々は、実際のTesla Model 3車載CANデータと、異なる運転イベントをアノテートした2時間の運転セッションのデータセットを用いて、アプローチを評価した。
論文 参考訳(メタデータ) (2023-01-12T13:10:47Z) - A Distributed Acoustic Sensor System for Intelligent Transportation
using Deep Learning [2.1219631216034127]
本研究は,光ファイバーを用いた分散音響センサ(DAS)を用いた交通解析のための新しいデータソースについて検討する。
本研究では,DAS信号の分析を行う深層学習手法を提案する。
制御条件下で収集したDASデータに基づいて,車両の分類精度92%,乗員検出92%-97%を達成した。
論文 参考訳(メタデータ) (2022-09-13T13:23:30Z) - Tackling Real-World Autonomous Driving using Deep Reinforcement Learning [63.3756530844707]
本研究では,加速と操舵角度を予測するニューラルネットワークを学習するモデルレスディープ強化学習プランナを提案する。
実際の自動運転車にシステムをデプロイするために、我々は小さなニューラルネットワークで表されるモジュールも開発する。
論文 参考訳(メタデータ) (2022-07-05T16:33:20Z) - COOPERNAUT: End-to-End Driving with Cooperative Perception for Networked
Vehicles [54.61668577827041]
本稿では,車間認識を用いたエンドツーエンド学習モデルであるCOOPERNAUTを紹介する。
われわれのAutoCastSim実験は、我々の協調知覚駆動モデルが平均成功率を40%向上させることを示唆している。
論文 参考訳(メタデータ) (2022-05-04T17:55:12Z) - Efficient and Robust LiDAR-Based End-to-End Navigation [132.52661670308606]
我々は,LiDARをベースとした効率的なエンドツーエンドナビゲーションフレームワークを提案する。
本稿では,スパース畳み込みカーネル最適化とハードウェア対応モデル設計に基づくFast-LiDARNetを提案する。
次に,単一の前方通過のみから予測の不確かさを直接推定するハイブリッド・エビデンシャル・フュージョンを提案する。
論文 参考訳(メタデータ) (2021-05-20T17:52:37Z) - IntentNet: Learning to Predict Intention from Raw Sensor Data [86.74403297781039]
本論文では,LiDARセンサが生成する3次元点群と,環境の動的なマップの両方を利用するワンステージ検出器と予測器を開発した。
当社のマルチタスクモデルは、それぞれの別々のモジュールよりも高い精度を実現し、計算を節約します。
論文 参考訳(メタデータ) (2021-01-20T00:31:52Z) - Vehicle Route Prediction through Multiple Sensors Data Fusion [0.0]
フレームワークは2つのモジュールで構成される。
ディープラーニングを用いて車両ナンバーの認識を行うフレームワークの最初のモジュール。
機械学習の教師付き学習アルゴリズムを用いた第2モジュールは、車両の経路を予測する。
論文 参考訳(メタデータ) (2020-08-30T08:14:11Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。