論文の概要: Feudal Steering: Hierarchical Learning for Steering Angle Prediction
- arxiv url: http://arxiv.org/abs/2006.06869v1
- Date: Thu, 11 Jun 2020 23:17:55 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-22 14:17:07.063925
- Title: Feudal Steering: Hierarchical Learning for Steering Angle Prediction
- Title(参考訳): feudal steering: ステアリング角度予測のための階層学習
- Authors: Faith Johnson, Kristin Dana
- Abstract要約: エゴセントリックな道路画像を用いた自動運転車の自動操舵角度予測の課題について考察する。
我々は、Udacity運転データセットのダッシュカメラ画像から、ハンドル角度を予測するための車両エージェントを考案した。
- 参考スコア(独自算出の注目度): 3.04585143845864
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: We consider the challenge of automated steering angle prediction for self
driving cars using egocentric road images. In this work, we explore the use of
feudal networks, used in hierarchical reinforcement learning (HRL), to devise a
vehicle agent to predict steering angles from first person, dash-cam images of
the Udacity driving dataset. Our method, Feudal Steering, is inspired by recent
work in HRL consisting of a manager network and a worker network that operate
on different temporal scales and have different goals. The manager works at a
temporal scale that is relatively coarse compared to the worker and has a
higher level, task-oriented goal space. Using feudal learning to divide the
task into manager and worker sub-networks provides more accurate and robust
prediction. Temporal abstraction in driving allows more complex primitives than
the steering angle at a single time instance. Composite actions comprise a
subroutine or skill that can be re-used throughout the driving sequence. The
associated subroutine id is the manager network's goal, so that the manager
seeks to succeed at the high level task (e.g. a sharp right turn, a slight
right turn, moving straight in traffic, or moving straight unencumbered by
traffic). The steering angle at a particular time instance is the worker
network output which is regulated by the manager's high level task. We
demonstrate state-of-the art steering angle prediction results on the Udacity
dataset.
- Abstract(参考訳): エゴセントリック道路画像を用いた自動運転車の自動操舵角予測の課題について考察する。
本研究では,階層的強化学習(HRL)に使用される封建的ネットワークを用いて,Udacity運転データセットのダッシュカム画像から,車両の操舵角度を予測するための車両エージェントを考案する。
本手法は,マネージャネットワークと,異なる時間スケールで動作し,異なる目標を持つワーカーネットワークからなるhrlにおける最近の作業に着想を得たものである。
マネージャは、作業者に比べて比較的粗い時間スケールで作業し、より高いレベルのタスク指向の目標空間を持つ。
封建学習を使ってタスクをマネージャとワーカーのサブネットワークに分割することで、より正確で堅牢な予測が可能になる。
運転時の時間的抽象化は、単一のインスタンスのステアリングアングルよりも複雑なプリミティブを可能にする。
複合アクションは、運転シーケンスを通して再利用できるサブルーチンまたはスキルを含む。
関連するサブルーチンIDは、マネージャネットワークのゴールであり、マネージャがハイレベルなタスク(例えば、シャープな右旋回、少し右旋回、トラフィックの直線的な移動、あるいはトラフィックに拘束されない直線的な移動)で成功しようとする。
特定の時間におけるステアリング角度は、マネージャのハイレベルタスクによって制御されるワーカーネットワーク出力である。
Udacityデータセット上で,最先端の操舵角度予測結果を示す。
関連論文リスト
- WHALES: A Multi-agent Scheduling Dataset for Enhanced Cooperation in Autonomous Driving [54.365702251769456]
我々は、駆動シーケンス当たり平均8.4エージェントのデータセットを提示する。
自律運転データセットの中で最大のエージェントと視点を提供するだけでなく、WHALESはエージェントの振る舞いを記録する。
エージェントスケジューリングタスクにおいて,エゴエージェントが複数の候補エージェントの1つを選択して協調する実験を行う。
論文 参考訳(メタデータ) (2024-11-20T14:12:34Z) - Human Insights Driven Latent Space for Different Driving Perspectives: A Unified Encoder for Efficient Multi-Task Inference [43.474068248379815]
本稿では,都市ナビゲーションに不可欠な複数のコンピュータビジョンタスクを訓練した共有エンコーダを提案する。
ポーズ推定のためのマルチスケール特徴ネットワークを導入し,深度学習を改善する。
その結果,多様な視覚的タスクを訓練した共有バックボーンは,全体的な知覚能力を提供することができることがわかった。
論文 参考訳(メタデータ) (2024-09-16T08:54:03Z) - DriveLM: Driving with Graph Visual Question Answering [57.51930417790141]
本研究では,Webスケールデータに基づいて学習した視覚言語モデル(VLM)を,エンド・ツー・エンドの運転システムに統合する方法について検討する。
グラフVQAとエンドツーエンド駆動を併用するVLMベースラインアプローチ(DriveLM-Agent)を提案する。
論文 参考訳(メタデータ) (2023-12-21T18:59:12Z) - Robust Autonomous Vehicle Pursuit without Expert Steering Labels [41.168074206046164]
車両追尾用エゴ車両の左右方向と縦方向の動作制御の学習法を提案する。
制御される車両は事前に定義された経路を持たず、安全距離を維持しながら目標車両を追尾するように反応的に適応する。
我々は、CARLAシミュレーターを用いて、幅広い地形における我々のアプローチを広範囲に検証した。
論文 参考訳(メタデータ) (2023-08-16T14:09:39Z) - Visual Exemplar Driven Task-Prompting for Unified Perception in
Autonomous Driving [100.3848723827869]
本稿では,タスク固有のプロンプトを通じて視覚的見本を提示する,効果的なマルチタスクフレームワークVE-Promptを提案する。
具体的には、境界ボックスと色に基づくマーカーに基づいて視覚的な例を生成し、ターゲットカテゴリの正確な視覚的外観を提供する。
我々は変圧器をベースとしたエンコーダと畳み込み層を橋渡しし、自律運転における効率的かつ正確な統合認識を実現する。
論文 参考訳(メタデータ) (2023-03-03T08:54:06Z) - Policy Pre-training for End-to-end Autonomous Driving via
Self-supervised Geometric Modeling [96.31941517446859]
PPGeo (Policy Pre-training via Geometric Modeling) は,視覚運動運転における政策事前学習のための,直感的かつ直接的な完全自己教師型フレームワークである。
本研究では,大規模な未ラベル・未校正動画の3次元幾何学シーンをモデル化することにより,ポリシー表現を強力な抽象化として学習することを目的とする。
第1段階では、幾何モデリングフレームワークは、2つの連続したフレームを入力として、ポーズと深さの予測を同時に生成する。
第2段階では、視覚エンコーダは、将来のエゴモーションを予測し、現在の視覚観察のみに基づいて測光誤差を最適化することにより、運転方針表現を学習する。
論文 参考訳(メタデータ) (2023-01-03T08:52:49Z) - CLUTR: Curriculum Learning via Unsupervised Task Representation Learning [130.79246770546413]
CLUTRは、タスク表現とカリキュラム学習を2段階最適化に分離する、新しいカリキュラム学習アルゴリズムである。
CLUTRは、CarRacingとナビゲーション環境における一般化とサンプル効率の観点から、原則的かつ一般的なUED手法であるPAIREDよりも優れていることを示す。
論文 参考訳(メタデータ) (2022-10-19T01:45:29Z) - Fully End-to-end Autonomous Driving with Semantic Depth Cloud Mapping
and Multi-Agent [2.512827436728378]
本稿では,エンド・ツー・エンドとマルチタスクの学習方法を用いて学習した新しいディープラーニングモデルを提案する。
このモデルは,CARLAシミュレータ上で,現実の環境を模倣するために,通常の状況と異なる天候のシナリオを用いて評価する。
論文 参考訳(メタデータ) (2022-04-12T03:57:01Z) - Generative Adversarial Imitation Learning for End-to-End Autonomous
Driving on Urban Environments [0.8122270502556374]
GAIL(Generative Adversarial Imitation Learning)は、報酬関数を明示的に定義することなくポリシーを訓練することができる。
両モデルとも,訓練終了後に開始から終了まで,専門家の軌道を模倣できることを示す。
論文 参考訳(メタデータ) (2021-10-16T15:04:13Z) - DQ-GAT: Towards Safe and Efficient Autonomous Driving with Deep
Q-Learning and Graph Attention Networks [12.714551756377265]
従来の計画手法は概ねルールベースであり、複雑な動的シナリオではスケールが不十分である。
スケーラブルでプロアクティブな自動運転を実現するためにDQ-GATを提案する。
我々の手法は、見知らぬシナリオと見えないシナリオの両方において、安全と効率のトレードオフを改善することができる。
論文 参考訳(メタデータ) (2021-08-11T04:55:23Z) - Learning Accurate and Human-Like Driving using Semantic Maps and
Attention [152.48143666881418]
本稿では,より正確かつ人間らしく運転できるエンド・ツー・エンド駆動モデルについて検討する。
HERE Technologiesのセマンティックマップとビジュアルマップを活用し、既存のDrive360データセットを拡張します。
私たちのモデルは、実世界の運転データ60時間3000kmのDrive360+HEREデータセットでトレーニングされ、評価されています。
論文 参考訳(メタデータ) (2020-07-10T22:25:27Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。