論文の概要: Scaling Vision-based End-to-End Driving with Multi-View Attention
Learning
- arxiv url: http://arxiv.org/abs/2302.03198v3
- Date: Sat, 22 Jul 2023 14:01:00 GMT
- ステータス: 処理完了
- システム内更新日: 2023-07-26 00:01:22.928726
- Title: Scaling Vision-based End-to-End Driving with Multi-View Attention
Learning
- Title(参考訳): マルチビュー注意学習による視覚に基づくエンドツーエンド運転のスケーリング
- Authors: Yi Xiao, Felipe Codevilla, Diego Porres, Antonio M. Lopez
- Abstract要約: 本稿では,人間にインスパイアされたHFOVを誘導バイアスとして用いて高分解能画像を処理し,適切な注意機構を組み込むことにより,CILRSを改善するCIL++を提案する。
我々は,車載信号のみによって制御され,条件付き模倣学習によって訓練された強力な視覚ベースの純粋エンドツーエンド駆動ベースラインとして,CILRSをCIL++に置き換えることを提案する。
- 参考スコア(独自算出の注目度): 7.14967754486195
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: On end-to-end driving, human driving demonstrations are used to train
perception-based driving models by imitation learning. This process is
supervised on vehicle signals (e.g., steering angle, acceleration) but does not
require extra costly supervision (human labeling of sensor data). As a
representative of such vision-based end-to-end driving models, CILRS is
commonly used as a baseline to compare with new driving models. So far, some
latest models achieve better performance than CILRS by using expensive sensor
suites and/or by using large amounts of human-labeled data for training. Given
the difference in performance, one may think that it is not worth pursuing
vision-based pure end-to-end driving. However, we argue that this approach
still has great value and potential considering cost and maintenance. In this
paper, we present CIL++, which improves on CILRS by both processing
higher-resolution images using a human-inspired HFOV as an inductive bias and
incorporating a proper attention mechanism. CIL++ achieves competitive
performance compared to models which are more costly to develop. We propose to
replace CILRS with CIL++ as a strong vision-based pure end-to-end driving
baseline supervised by only vehicle signals and trained by conditional
imitation learning.
- Abstract(参考訳): エンドツーエンドの運転では、人間の運転デモは模倣学習によって知覚に基づく運転モデルを訓練するために使用される。
このプロセスは車両の信号(例えば、操舵角度、加速度)で監視されるが、追加のコストの監督(センサーデータの人間のラベル付け)は必要ない。
このようなビジョンベースのエンドツーエンド駆動モデルの代表として、CILRSは新しい駆動モデルと比較するためのベースラインとして一般的に使用される。
最新のモデルでは、高価なセンサースイートやトレーニングに大量の人ラベルデータを使用することで、CILRSよりも優れたパフォーマンスを実現している。
パフォーマンスの違いを考えると、ビジョンベースの純粋なエンドツーエンドの運転を追求する価値はないと考えるかもしれません。
しかし、このアプローチは依然としてコストとメンテナンスを考える上で大きな価値と可能性を持っていると論じている。
本稿では,人間に触発されたhfovをインダクティブバイアスとして高分解能画像を処理し,適切な注意機構を組み込んだcil++を提案する。
cil++は、開発コストが高いモデルと比較して、競争力のあるパフォーマンスを実現している。
我々は,車両信号のみに監視され,条件付き模倣学習によって訓練される強ビジョンベースのエンド・ツー・エンド駆動ベースラインとして,cilrsをcil++に置き換えることを提案する。
関連論文リスト
- MetaFollower: Adaptable Personalized Autonomous Car Following [63.90050686330677]
適応型パーソナライズされた自動車追従フレームワークであるMetaFollowerを提案する。
まず,モデルに依存しないメタラーニング(MAML)を用いて,様々なCFイベントから共通運転知識を抽出する。
さらに、Long Short-Term Memory (LSTM) と Intelligent Driver Model (IDM) を組み合わせて、時間的不均一性を高い解釈性で反映する。
論文 参考訳(メタデータ) (2024-06-23T15:30:40Z) - Guiding Attention in End-to-End Driving Models [49.762868784033785]
模倣学習によって訓練された視覚ベースのエンドツーエンドの運転モデルは、自動運転のための安価なソリューションにつながる可能性がある。
トレーニング中に損失項を追加することにより、これらのモデルの注意を誘導し、運転品質を向上させる方法について検討する。
従来の研究とは対照的に,本手法では,テスト期間中にこれらの有意義なセマンティックマップを利用できない。
論文 参考訳(メタデータ) (2024-04-30T23:18:51Z) - COOPERNAUT: End-to-End Driving with Cooperative Perception for Networked
Vehicles [54.61668577827041]
本稿では,車間認識を用いたエンドツーエンド学習モデルであるCOOPERNAUTを紹介する。
われわれのAutoCastSim実験は、我々の協調知覚駆動モデルが平均成功率を40%向上させることを示唆している。
論文 参考訳(メタデータ) (2022-05-04T17:55:12Z) - TransDARC: Transformer-based Driver Activity Recognition with Latent
Space Feature Calibration [31.908276711898548]
本稿では、視覚変換器に基づく二次運転行動認識のための視覚ベースのフレームワークと、機能分散キャリブレーションモジュールを提案する。
当社のフレームワークは,すべてのレベルにおいて,公的なDrive&Actベンチマークの過去の成果を上回り,認識率を常に向上させています。
論文 参考訳(メタデータ) (2022-03-02T08:14:06Z) - Vision-Based Autonomous Car Racing Using Deep Imitative Reinforcement
Learning [13.699336307578488]
深層模倣強化学習(DIRL)は、視覚入力を使用してアジャイルな自律レースを実現する。
我々は,高忠実性運転シミュレーションと実世界の1/20スケールRC-car上での車載計算の制限により,本アルゴリズムの有効性を検証した。
論文 参考訳(メタデータ) (2021-07-18T00:00:48Z) - Self-Supervised Steering Angle Prediction for Vehicle Control Using
Visual Odometry [55.11913183006984]
視覚オドメトリー法を用いて推定したカメラポーズを用いて,車両の軌道制御をモデルに訓練する方法を示す。
車両の前方にカメラを設置することにより,複数の異なる走行経路からの軌跡情報を活用するスケーラブルなフレームワークを提案する。
論文 参考訳(メタデータ) (2021-03-20T16:29:01Z) - Action-Based Representation Learning for Autonomous Driving [8.296684637620551]
本稿では,行動に基づく運転データを学習表現に用いることを提案する。
提案手法を用いて事前学習した空き時間に基づく運転モデルでは,比較的少量の弱注釈画像が有効であることを示す。
論文 参考訳(メタデータ) (2020-08-21T10:49:13Z) - Learning Accurate and Human-Like Driving using Semantic Maps and
Attention [152.48143666881418]
本稿では,より正確かつ人間らしく運転できるエンド・ツー・エンド駆動モデルについて検討する。
HERE Technologiesのセマンティックマップとビジュアルマップを活用し、既存のDrive360データセットを拡張します。
私たちのモデルは、実世界の運転データ60時間3000kmのDrive360+HEREデータセットでトレーニングされ、評価されています。
論文 参考訳(メタデータ) (2020-07-10T22:25:27Z) - Explaining Autonomous Driving by Learning End-to-End Visual Attention [25.09407072098823]
現在のディープラーニングベースの自律運転アプローチは、いくつかの制御されたシナリオにおいて、本番環境へのデプロイも実現している。
最も人気があり魅力的なアプローチの1つは、センサーが認識したデータから直接車両の制御を学習することに依存している。
このアプローチの主な欠点は、他の学習問題と同様に、説明可能性の欠如である。実際、ディープネットワークは、なぜそのような決定を下されたのかを何のフィードバックも与えずに、これまで見られた駆動パターンによって予測を出力するブラックボックスとして機能する。
論文 参考訳(メタデータ) (2020-06-05T10:12:31Z) - Learning by Cheating [72.9701333689606]
この難解な学習問題を2段階に分解することで単純化できることを示す。
提案手法を用いて、視覚に基づく自律運転システムの訓練を行い、芸術の状況を大幅に上回っている。
提案手法は,従来のCARLAベンチマークのすべてのタスクにおける100%の成功率を初めて達成し,NoCrashベンチマークに新しい記録を樹立し,従来の技術と比較すると,屈折率を桁違いに低減する。
論文 参考訳(メタデータ) (2019-12-27T18:59:04Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。