論文の概要: KARNet: Kalman Filter Augmented Recurrent Neural Network for Learning
World Models in Autonomous Driving Tasks
- arxiv url: http://arxiv.org/abs/2305.14644v1
- Date: Wed, 24 May 2023 02:27:34 GMT
- ステータス: 処理完了
- システム内更新日: 2023-05-25 20:27:40.759109
- Title: KARNet: Kalman Filter Augmented Recurrent Neural Network for Learning
World Models in Autonomous Driving Tasks
- Title(参考訳): KARNet: 自律走行タスクにおける世界モデル学習のためのKalmanフィルタ強化リカレントニューラルネットワーク
- Authors: Hemanth Manjunatha, Andrey Pak, Dimitar Filev, Panagiotis Tsiotras
- Abstract要約: 本稿では、フロントカメラ画像のみを用いて、交通流の潜在表現を学習するために、Kalmanフィルタの強化されたリカレントニューラルネットワークアーキテクチャを提案する。
その結果,車両の明示的なモデル(カルマンフィルタを用いて推定した状態)をエンドツーエンド学習に組み込むことで,性能が著しく向上した。
- 参考スコア(独自算出の注目度): 11.489187712465325
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Autonomous driving has received a great deal of attention in the automotive
industry and is often seen as the future of transportation. The development of
autonomous driving technology has been greatly accelerated by the growth of
end-to-end machine learning techniques that have been successfully used for
perception, planning, and control tasks. An important aspect of autonomous
driving planning is knowing how the environment evolves in the immediate future
and taking appropriate actions. An autonomous driving system should effectively
use the information collected from the various sensors to form an abstract
representation of the world to maintain situational awareness. For this
purpose, deep learning models can be used to learn compact latent
representations from a stream of incoming data. However, most deep learning
models are trained end-to-end and do not incorporate any prior knowledge (e.g.,
from physics) of the vehicle in the architecture. In this direction, many works
have explored physics-infused neural network (PINN) architectures to infuse
physics models during training. Inspired by this observation, we present a
Kalman filter augmented recurrent neural network architecture to learn the
latent representation of the traffic flow using front camera images only. We
demonstrate the efficacy of the proposed model in both imitation and
reinforcement learning settings using both simulated and real-world datasets.
The results show that incorporating an explicit model of the vehicle (states
estimated using Kalman filtering) in the end-to-end learning significantly
increases performance.
- Abstract(参考訳): 自動運転は自動車業界で多くの注目を集めており、しばしば交通の未来と見なされている。
自動運転技術の開発は、知覚、計画、制御タスクに成功しているエンドツーエンド機械学習技術の成長によって、大幅に加速されている。
自動運転計画の重要な側面は、環境が近い将来どのように進化するかを理解し、適切な行動を取ることである。
自律運転システムは、様々なセンサから収集した情報を効果的に利用して、世界を抽象的に表現し、状況認識を維持する。
この目的のために、ディープラーニングモデルを使用して、受信データのストリームからコンパクトな潜在表現を学習することができる。
しかし、ほとんどのディープラーニングモデルはエンドツーエンドで訓練されており、車両の以前の知識(例えば物理)をアーキテクチャに組み込んでいない。
この方向では、トレーニング中に物理モデルを注入する物理拡散ニューラルネットワーク(PINN)アーキテクチャについて多くの研究がなされている。
そこで本研究では,前部カメラ画像のみを用いてトラヒックフローの潜在表現を学習するために,カルマンフィルタ拡張リカレントニューラルネットワークアーキテクチャを提案する。
シミュレーションと実世界の両方のデータセットを用いた模擬および強化学習設定において,提案モデルの有効性を実証する。
その結果,車両の明示的なモデル(カルマンフィルタを用いて推定した状態)をエンドツーエンド学習に組み込むことで,性能が著しく向上した。
関連論文リスト
- Continual Learning for Adaptable Car-Following in Dynamic Traffic Environments [16.587883982785]
自動運転技術の継続的な進化には、多様なダイナミックな交通環境に適応できる自動車追従モデルが必要である。
従来の学習ベースのモデルは、連続的な学習能力の欠如により、目に見えないトラフィックパターンに遭遇する際のパフォーマンス低下に悩まされることが多い。
本稿では,この制限に対処する連続学習に基づく新しい車追従モデルを提案する。
論文 参考訳(メタデータ) (2024-07-17T06:32:52Z) - Guiding Attention in End-to-End Driving Models [49.762868784033785]
模倣学習によって訓練された視覚ベースのエンドツーエンドの運転モデルは、自動運転のための安価なソリューションにつながる可能性がある。
トレーニング中に損失項を追加することにより、これらのモデルの注意を誘導し、運転品質を向上させる方法について検討する。
従来の研究とは対照的に,本手法では,テスト期間中にこれらの有意義なセマンティックマップを利用できない。
論文 参考訳(メタデータ) (2024-04-30T23:18:51Z) - Policy Pre-training for End-to-end Autonomous Driving via
Self-supervised Geometric Modeling [96.31941517446859]
PPGeo (Policy Pre-training via Geometric Modeling) は,視覚運動運転における政策事前学習のための,直感的かつ直接的な完全自己教師型フレームワークである。
本研究では,大規模な未ラベル・未校正動画の3次元幾何学シーンをモデル化することにより,ポリシー表現を強力な抽象化として学習することを目的とする。
第1段階では、幾何モデリングフレームワークは、2つの連続したフレームを入力として、ポーズと深さの予測を同時に生成する。
第2段階では、視覚エンコーダは、将来のエゴモーションを予測し、現在の視覚観察のみに基づいて測光誤差を最適化することにより、運転方針表現を学習する。
論文 参考訳(メタデータ) (2023-01-03T08:52:49Z) - Physics Embedded Neural Network Vehicle Model and Applications in
Risk-Aware Autonomous Driving Using Latent Features [6.33280703577189]
非ホロノミック車両運動は物理学に基づくモデルを用いて広く研究されている。
本稿では,ディープラーニングと完全に微分可能な物理モデルとをシームレスに組み合わせ,ニューラルネットワークに事前知識を付与する。
論文 参考訳(メタデータ) (2022-07-16T12:06:55Z) - Tackling Real-World Autonomous Driving using Deep Reinforcement Learning [63.3756530844707]
本研究では,加速と操舵角度を予測するニューラルネットワークを学習するモデルレスディープ強化学習プランナを提案する。
実際の自動運転車にシステムをデプロイするために、我々は小さなニューラルネットワークで表されるモジュールも開発する。
論文 参考訳(メタデータ) (2022-07-05T16:33:20Z) - CARNet: A Dynamic Autoencoder for Learning Latent Dynamics in Autonomous
Driving Tasks [11.489187712465325]
自律運転システムは、世界の抽象的な記述を形成するために、様々なセンサから収集した情報を効果的に活用すべきである。
オートエンコーダのようなディープラーニングモデルは、受信データのストリームからコンパクトな潜在表現を学習できるため、その目的のために使用できる。
この研究は、自動エンコーダとリカレントニューラルネットワークを組み合わせて現在の潜伏表現を学習する、複合dynAmicautoencodeRネットワークアーキテクチャであるCARNetを提案する。
論文 参考訳(メタデータ) (2022-05-18T04:15:42Z) - Vision-Based Autonomous Car Racing Using Deep Imitative Reinforcement
Learning [13.699336307578488]
深層模倣強化学習(DIRL)は、視覚入力を使用してアジャイルな自律レースを実現する。
我々は,高忠実性運転シミュレーションと実世界の1/20スケールRC-car上での車載計算の制限により,本アルゴリズムの有効性を検証した。
論文 参考訳(メタデータ) (2021-07-18T00:00:48Z) - Improving Generalization of Transfer Learning Across Domains Using
Spatio-Temporal Features in Autonomous Driving [45.655433907239804]
車両シミュレーションは仮想世界で学習するために使用することができ、取得したスキルは現実世界のシナリオを扱うために転送することができる。
これらの視覚的要素は、運転中の人間の意思決定に直感的に重要です。
シーンから車両の動特性を表す時間的特徴を抽出するCNN+LSTM転送学習フレームワークを提案する。
論文 参考訳(メタデータ) (2021-03-15T03:26:06Z) - IntentNet: Learning to Predict Intention from Raw Sensor Data [86.74403297781039]
本論文では,LiDARセンサが生成する3次元点群と,環境の動的なマップの両方を利用するワンステージ検出器と予測器を開発した。
当社のマルチタスクモデルは、それぞれの別々のモジュールよりも高い精度を実現し、計算を節約します。
論文 参考訳(メタデータ) (2021-01-20T00:31:52Z) - Fine-Grained Vehicle Perception via 3D Part-Guided Visual Data
Augmentation [77.60050239225086]
実画像中の車両に動的部品を付加した3次元自動車モデルによる効果的なトレーニングデータ生成プロセスを提案する。
私達のアプローチは人間の相互作用なしで完全に自動です。
VUS解析用マルチタスクネットワークとVHI解析用マルチストリームネットワークを提案する。
論文 参考訳(メタデータ) (2020-12-15T03:03:38Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。