論文の概要: Learning Accurate and Human-Like Driving using Semantic Maps and
Attention
- arxiv url: http://arxiv.org/abs/2007.07218v1
- Date: Fri, 10 Jul 2020 22:25:27 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-11 21:24:30.006642
- Title: Learning Accurate and Human-Like Driving using Semantic Maps and
Attention
- Title(参考訳): セマンティックマップと注意力を用いた精度と人間ライクな運転の学習
- Authors: Simon Hecker, Dengxin Dai, Alexander Liniger, Luc Van Gool
- Abstract要約: 本稿では,より正確かつ人間らしく運転できるエンド・ツー・エンド駆動モデルについて検討する。
HERE Technologiesのセマンティックマップとビジュアルマップを活用し、既存のDrive360データセットを拡張します。
私たちのモデルは、実世界の運転データ60時間3000kmのDrive360+HEREデータセットでトレーニングされ、評価されています。
- 参考スコア(独自算出の注目度): 152.48143666881418
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: This paper investigates how end-to-end driving models can be improved to
drive more accurately and human-like. To tackle the first issue we exploit
semantic and visual maps from HERE Technologies and augment the existing
Drive360 dataset with such. The maps are used in an attention mechanism that
promotes segmentation confidence masks, thus focusing the network on semantic
classes in the image that are important for the current driving situation.
Human-like driving is achieved using adversarial learning, by not only
minimizing the imitation loss with respect to the human driver but by further
defining a discriminator, that forces the driving model to produce action
sequences that are human-like. Our models are trained and evaluated on the
Drive360 + HERE dataset, which features 60 hours and 3000 km of real-world
driving data. Extensive experiments show that our driving models are more
accurate and behave more human-like than previous methods.
- Abstract(参考訳): 本稿では,より正確かつ人間らしく運転できるエンド・ツー・エンド駆動モデルについて検討する。
最初の課題に取り組むために、ここの技術からセマンティックとビジュアルマップを活用し、既存のdrive360データセットを拡張します。
マップは、セグメンテーションの信頼度マスクを促進するアテンションメカニズムで使用されており、ネットワークは現在の運転状況において重要なイメージのセマンティッククラスに焦点を当てている。
ヒトライクな運転は、人間の運転者に対する模倣損失を最小限に抑えるだけでなく、識別器を更に定義することにより、人間に似た行動シーケンスを駆動モデルに生成させる。
私たちのモデルは、実際の運転データ60時間3000kmのdrive360 + hereデータセットでトレーニングされ、評価されます。
広範な実験により、運転モデルは従来の方法よりも正確で、人間らしく振る舞うことが示された。
関連論文リスト
- Guiding Attention in End-to-End Driving Models [49.762868784033785]
模倣学習によって訓練された視覚ベースのエンドツーエンドの運転モデルは、自動運転のための安価なソリューションにつながる可能性がある。
トレーニング中に損失項を追加することにより、これらのモデルの注意を誘導し、運転品質を向上させる方法について検討する。
従来の研究とは対照的に,本手法では,テスト期間中にこれらの有意義なセマンティックマップを利用できない。
論文 参考訳(メタデータ) (2024-04-30T23:18:51Z) - Scaling Vision-based End-to-End Driving with Multi-View Attention
Learning [7.14967754486195]
本稿では,人間にインスパイアされたHFOVを誘導バイアスとして用いて高分解能画像を処理し,適切な注意機構を組み込むことにより,CILRSを改善するCIL++を提案する。
我々は,車載信号のみによって制御され,条件付き模倣学習によって訓練された強力な視覚ベースの純粋エンドツーエンド駆動ベースラインとして,CILRSをCIL++に置き換えることを提案する。
論文 参考訳(メタデータ) (2023-02-07T02:14:45Z) - Policy Pre-training for End-to-end Autonomous Driving via
Self-supervised Geometric Modeling [96.31941517446859]
PPGeo (Policy Pre-training via Geometric Modeling) は,視覚運動運転における政策事前学習のための,直感的かつ直接的な完全自己教師型フレームワークである。
本研究では,大規模な未ラベル・未校正動画の3次元幾何学シーンをモデル化することにより,ポリシー表現を強力な抽象化として学習することを目的とする。
第1段階では、幾何モデリングフレームワークは、2つの連続したフレームを入力として、ポーズと深さの予測を同時に生成する。
第2段階では、視覚エンコーダは、将来のエゴモーションを予測し、現在の視覚観察のみに基づいて測光誤差を最適化することにより、運転方針表現を学習する。
論文 参考訳(メタデータ) (2023-01-03T08:52:49Z) - FBLNet: FeedBack Loop Network for Driver Attention Prediction [75.83518507463226]
非客観的運転経験はモデル化が難しい。
本稿では,運転経験蓄積過程をモデル化するFeedBack Loop Network (FBLNet)を提案する。
インクリメンタルな知識の指導のもと、私たちのモデルは入力画像から抽出されたCNN特徴とトランスフォーマー特徴を融合し、ドライバーの注意を予測します。
論文 参考訳(メタデータ) (2022-12-05T08:25:09Z) - Exploring the trade off between human driving imitation and safety for
traffic simulation [0.34410212782758043]
運転方針の学習において,人間の運転の模倣と安全維持との間にはトレードオフが存在することを示す。
両目的を協調的に改善する多目的学習アルゴリズム(MOPPO)を提案する。
論文 参考訳(メタデータ) (2022-08-09T14:30:19Z) - Online Adaptation of Parameters using GRU-based Neural Network with BO
for Accurate Driving Model [0.8433000039153409]
運転モデル(DM)のキャリブレーションは、シミュレーションされた運転動作を人間の運転行動に近づける。
従来のDM校正法は、運転中にDMのパラメータが異なることを考慮しない。
実車追従動作をより正確に再現するために,人間の運転スタイルを測定するDM校正手法を提案する。
論文 参考訳(メタデータ) (2021-09-24T03:07:12Z) - IntentNet: Learning to Predict Intention from Raw Sensor Data [86.74403297781039]
本論文では,LiDARセンサが生成する3次元点群と,環境の動的なマップの両方を利用するワンステージ検出器と予測器を開発した。
当社のマルチタスクモデルは、それぞれの別々のモジュールよりも高い精度を実現し、計算を節約します。
論文 参考訳(メタデータ) (2021-01-20T00:31:52Z) - Fine-Grained Vehicle Perception via 3D Part-Guided Visual Data
Augmentation [77.60050239225086]
実画像中の車両に動的部品を付加した3次元自動車モデルによる効果的なトレーニングデータ生成プロセスを提案する。
私達のアプローチは人間の相互作用なしで完全に自動です。
VUS解析用マルチタスクネットワークとVHI解析用マルチストリームネットワークを提案する。
論文 参考訳(メタデータ) (2020-12-15T03:03:38Z) - Action-Based Representation Learning for Autonomous Driving [8.296684637620551]
本稿では,行動に基づく運転データを学習表現に用いることを提案する。
提案手法を用いて事前学習した空き時間に基づく運転モデルでは,比較的少量の弱注釈画像が有効であることを示す。
論文 参考訳(メタデータ) (2020-08-21T10:49:13Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。