論文の概要: Learning Accurate and Human-Like Driving using Semantic Maps and
Attention
- arxiv url: http://arxiv.org/abs/2007.07218v1
- Date: Fri, 10 Jul 2020 22:25:27 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-11 21:24:30.006642
- Title: Learning Accurate and Human-Like Driving using Semantic Maps and
Attention
- Title(参考訳): セマンティックマップと注意力を用いた精度と人間ライクな運転の学習
- Authors: Simon Hecker, Dengxin Dai, Alexander Liniger, Luc Van Gool
- Abstract要約: 本稿では,より正確かつ人間らしく運転できるエンド・ツー・エンド駆動モデルについて検討する。
HERE Technologiesのセマンティックマップとビジュアルマップを活用し、既存のDrive360データセットを拡張します。
私たちのモデルは、実世界の運転データ60時間3000kmのDrive360+HEREデータセットでトレーニングされ、評価されています。
- 参考スコア(独自算出の注目度): 152.48143666881418
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: This paper investigates how end-to-end driving models can be improved to
drive more accurately and human-like. To tackle the first issue we exploit
semantic and visual maps from HERE Technologies and augment the existing
Drive360 dataset with such. The maps are used in an attention mechanism that
promotes segmentation confidence masks, thus focusing the network on semantic
classes in the image that are important for the current driving situation.
Human-like driving is achieved using adversarial learning, by not only
minimizing the imitation loss with respect to the human driver but by further
defining a discriminator, that forces the driving model to produce action
sequences that are human-like. Our models are trained and evaluated on the
Drive360 + HERE dataset, which features 60 hours and 3000 km of real-world
driving data. Extensive experiments show that our driving models are more
accurate and behave more human-like than previous methods.
- Abstract(参考訳): 本稿では,より正確かつ人間らしく運転できるエンド・ツー・エンド駆動モデルについて検討する。
最初の課題に取り組むために、ここの技術からセマンティックとビジュアルマップを活用し、既存のdrive360データセットを拡張します。
マップは、セグメンテーションの信頼度マスクを促進するアテンションメカニズムで使用されており、ネットワークは現在の運転状況において重要なイメージのセマンティッククラスに焦点を当てている。
ヒトライクな運転は、人間の運転者に対する模倣損失を最小限に抑えるだけでなく、識別器を更に定義することにより、人間に似た行動シーケンスを駆動モデルに生成させる。
私たちのモデルは、実際の運転データ60時間3000kmのdrive360 + hereデータセットでトレーニングされ、評価されます。
広範な実験により、運転モデルは従来の方法よりも正確で、人間らしく振る舞うことが示された。
関連論文リスト
- Transfer Your Perspective: Controllable 3D Generation from Any Viewpoint in a Driving Scene [56.73568220959019]
共同自動運転(CAV)は有望な方向のようだが、開発のためのデータ収集は簡単ではない。
本研究では,運転シーンにおける異なる視点から現実的な知覚を生み出すことを目的とした,救助支援のための新しいサロゲートを提案する。
シミュレーションされたコラボレーティブデータと実車データを組み合わせた,最初のソリューションを提案する。
論文 参考訳(メタデータ) (2025-02-10T17:07:53Z) - Guiding Attention in End-to-End Driving Models [49.762868784033785]
模倣学習によって訓練された視覚ベースのエンドツーエンドの運転モデルは、自動運転のための安価なソリューションにつながる可能性がある。
トレーニング中に損失項を追加することにより、これらのモデルの注意を誘導し、運転品質を向上させる方法について検討する。
従来の研究とは対照的に,本手法では,テスト期間中にこれらの有意義なセマンティックマップを利用できない。
論文 参考訳(メタデータ) (2024-04-30T23:18:51Z) - Scaling Vision-based End-to-End Driving with Multi-View Attention
Learning [7.14967754486195]
本稿では,人間にインスパイアされたHFOVを誘導バイアスとして用いて高分解能画像を処理し,適切な注意機構を組み込むことにより,CILRSを改善するCIL++を提案する。
我々は,車載信号のみによって制御され,条件付き模倣学習によって訓練された強力な視覚ベースの純粋エンドツーエンド駆動ベースラインとして,CILRSをCIL++に置き換えることを提案する。
論文 参考訳(メタデータ) (2023-02-07T02:14:45Z) - FBLNet: FeedBack Loop Network for Driver Attention Prediction [50.936478241688114]
非客観的運転経験のモデル化は困難であり,既存手法では運転経験蓄積手順を模擬する機構が欠如している。
本稿では,運転経験蓄積手順をモデル化するFeedBack Loop Network (FBLNet)を提案する。
提案モデルでは,既存の手法に対して強い優位性を示し,2つのドライバー注意ベンチマークデータセットの性能向上を実現している。
論文 参考訳(メタデータ) (2022-12-05T08:25:09Z) - Exploring the trade off between human driving imitation and safety for
traffic simulation [0.34410212782758043]
運転方針の学習において,人間の運転の模倣と安全維持との間にはトレードオフが存在することを示す。
両目的を協調的に改善する多目的学習アルゴリズム(MOPPO)を提案する。
論文 参考訳(メタデータ) (2022-08-09T14:30:19Z) - Online Adaptation of Parameters using GRU-based Neural Network with BO
for Accurate Driving Model [0.8433000039153409]
運転モデル(DM)のキャリブレーションは、シミュレーションされた運転動作を人間の運転行動に近づける。
従来のDM校正法は、運転中にDMのパラメータが異なることを考慮しない。
実車追従動作をより正確に再現するために,人間の運転スタイルを測定するDM校正手法を提案する。
論文 参考訳(メタデータ) (2021-09-24T03:07:12Z) - IntentNet: Learning to Predict Intention from Raw Sensor Data [86.74403297781039]
本論文では,LiDARセンサが生成する3次元点群と,環境の動的なマップの両方を利用するワンステージ検出器と予測器を開発した。
当社のマルチタスクモデルは、それぞれの別々のモジュールよりも高い精度を実現し、計算を節約します。
論文 参考訳(メタデータ) (2021-01-20T00:31:52Z) - Fine-Grained Vehicle Perception via 3D Part-Guided Visual Data
Augmentation [77.60050239225086]
実画像中の車両に動的部品を付加した3次元自動車モデルによる効果的なトレーニングデータ生成プロセスを提案する。
私達のアプローチは人間の相互作用なしで完全に自動です。
VUS解析用マルチタスクネットワークとVHI解析用マルチストリームネットワークを提案する。
論文 参考訳(メタデータ) (2020-12-15T03:03:38Z) - Action-Based Representation Learning for Autonomous Driving [8.296684637620551]
本稿では,行動に基づく運転データを学習表現に用いることを提案する。
提案手法を用いて事前学習した空き時間に基づく運転モデルでは,比較的少量の弱注釈画像が有効であることを示す。
論文 参考訳(メタデータ) (2020-08-21T10:49:13Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。