論文の概要: Learning by Watching
- arxiv url: http://arxiv.org/abs/2106.05966v1
- Date: Thu, 10 Jun 2021 17:58:34 GMT
- ステータス: 処理完了
- システム内更新日: 2021-06-11 14:41:46.782314
- Title: Learning by Watching
- Title(参考訳): 観察による学習
- Authors: Jimuyang Zhang and Eshed Ohn-Bar
- Abstract要約: 観察による学習(LbW)は、国家や専門家の行動の知識を必要とせず、運転方針を学習することができる。
LbWは、エゴ車両の観察を視界に変換することで、あるシーンにおける他の車両のデモンストレーションを利用する。
我々のLbWエージェントは、データ効率のよい学習を可能にしながら、より堅牢な運転ポリシーを学びます。
- 参考スコア(独自算出の注目度): 7.785051236155595
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: When in a new situation or geographical location, human drivers have an
extraordinary ability to watch others and learn maneuvers that they themselves
may have never performed. In contrast, existing techniques for learning to
drive preclude such a possibility as they assume direct access to an
instrumented ego-vehicle with fully known observations and expert driver
actions. However, such measurements cannot be directly accessed for the non-ego
vehicles when learning by watching others. Therefore, in an application where
data is regarded as a highly valuable asset, current approaches completely
discard the vast portion of the training data that can be potentially obtained
through indirect observation of surrounding vehicles. Motivated by this key
insight, we propose the Learning by Watching (LbW) framework which enables
learning a driving policy without requiring full knowledge of neither the state
nor expert actions. To increase its data, i.e., with new perspectives and
maneuvers, LbW makes use of the demonstrations of other vehicles in a given
scene by (1) transforming the ego-vehicle's observations to their points of
view, and (2) inferring their expert actions. Our LbW agent learns more robust
driving policies while enabling data-efficient learning, including quick
adaptation of the policy to rare and novel scenarios. In particular, LbW drives
robustly even with a fraction of available driving data required by existing
methods, achieving an average success rate of 92% on the original CARLA
benchmark with only 30 minutes of total driving data and 82% with only 10
minutes.
- Abstract(参考訳): 新しい状況や地理的な場所では、人間ドライバーは他人を観察し、自分自身が実行したことがないような操作を学べる特別な能力を持っている。
対照的に、既存の学習技術は、完全に知られた観察と専門的なドライバーアクションを備えた計測された自走車への直接アクセスを想定しているため、そのような可能性を妨げる。
しかし、そのような測定は、他人を観察することで学習する場合、非自走車に直接アクセスすることはできない。
したがって、データが貴重な資産と見なされるアプリケーションでは、現在のアプローチでは、周囲の車両を間接的に観測することで得られる可能性のあるトレーニングデータの大部分が完全に破棄される。
この重要な洞察を生かして、国家や専門家の行動の知識を必要とせず、運転方針の学習を可能にするLbW(Learning by Watching)フレームワークを提案する。
lbwは、新たな視点と操作によってデータを増やすために、(1)自走車による観察を視点に転換し、(2)専門家の行動を推論することで、与えられたシーンにおける他の車両のデモンストレーションを利用する。
我々のLbWエージェントは、データ効率のよい学習を可能にしながら、より堅牢な運転ポリシーを学びます。
特に、LbWは、既存の方法で必要とされていた運転データのごく一部でも頑健に駆動し、従来のCARLAベンチマークで平均成功率は92%、総走行時間は30分、わずか10分で82%である。
関連論文リスト
- Guiding Attention in End-to-End Driving Models [49.762868784033785]
模倣学習によって訓練された視覚ベースのエンドツーエンドの運転モデルは、自動運転のための安価なソリューションにつながる可能性がある。
トレーニング中に損失項を追加することにより、これらのモデルの注意を誘導し、運転品質を向上させる方法について検討する。
従来の研究とは対照的に,本手法では,テスト期間中にこれらの有意義なセマンティックマップを利用できない。
論文 参考訳(メタデータ) (2024-04-30T23:18:51Z) - Learning Driver Models for Automated Vehicles via Knowledge Sharing and
Personalization [2.07180164747172]
本稿では,自動車間の知識共有とパーソナライゼーションを通じて,自動走行車(AV)ドライバモデルを学習するためのフレームワークについて述べる。
インテリジェントな輸送システム、交通管理、車両間通信など、輸送工学にまたがるいくつかの応用を見出している。
論文 参考訳(メタデータ) (2023-08-31T17:18:15Z) - Efficient Reinforcement Learning for Autonomous Driving with
Parameterized Skills and Priors [16.87227671645374]
ASAP-RLは自律運転のための効率的な強化学習アルゴリズムである。
専門的なデモンストレーションを制御空間からスキル空間に変換するために,スキルパラメータ逆回復法を提案する。
本手法は, 単純かつスパースな報酬を付与した対話型高密度交通運転タスクにおいて, 提案手法の有効性を検証した。
論文 参考訳(メタデータ) (2023-05-08T01:39:35Z) - Reinforcement Learning from Passive Data via Latent Intentions [86.4969514480008]
我々は、下流RLを加速する機能を学ぶために、受動的データが引き続き使用できることを示す。
我々のアプローチは、意図をモデル化することで受動的データから学習する。
実験では、クロス・エボディメント・ビデオデータやYouTubeビデオなど、さまざまな形式の受動的データから学習できることを実証した。
論文 参考訳(メタデータ) (2023-04-10T17:59:05Z) - Unsupervised Driving Event Discovery Based on Vehicle CAN-data [62.997667081978825]
本研究は,車両CANデータのクラスタリングとセグメンテーションを同時に行うことで,一般的な運転イベントを教師なしで識別する手法である。
我々は、実際のTesla Model 3車載CANデータと、異なる運転イベントをアノテートした2時間の運転セッションのデータセットを用いて、アプローチを評価した。
論文 参考訳(メタデータ) (2023-01-12T13:10:47Z) - Imitation Is Not Enough: Robustifying Imitation with Reinforcement
Learning for Challenging Driving Scenarios [147.16925581385576]
シミュレーション学習と強化学習を組み合わせることで,運転方針の安全性と信頼性が大幅に向上することを示す。
都会の運転データ100万マイル以上でポリシーを訓練し、異なるレベルの衝突確率でグループ化されたテストシナリオにおける有効性を測定する。
論文 参考訳(メタデータ) (2022-12-21T23:59:33Z) - FBLNet: FeedBack Loop Network for Driver Attention Prediction [75.83518507463226]
非客観的運転経験はモデル化が難しい。
本稿では,運転経験蓄積過程をモデル化するFeedBack Loop Network (FBLNet)を提案する。
インクリメンタルな知識の指導のもと、私たちのモデルは入力画像から抽出されたCNN特徴とトランスフォーマー特徴を融合し、ドライバーの注意を予測します。
論文 参考訳(メタデータ) (2022-12-05T08:25:09Z) - Learning Interactive Driving Policies via Data-driven Simulation [125.97811179463542]
データ駆動シミュレータは、ポリシー学習の駆動に高いデータ効率を約束する。
小さな基盤となるデータセットは、インタラクティブな運転を学ぶための興味深い、挑戦的なエッジケースを欠いていることが多い。
本研究では,ロバストな運転方針の学習に塗装されたアドカーを用いたシミュレーション手法を提案する。
論文 参考訳(メタデータ) (2021-11-23T20:14:02Z) - Learning Personalized Discretionary Lane-Change Initiation for Fully
Autonomous Driving Based on Reinforcement Learning [11.54360350026252]
著者らは,完全自律走行車に対する選択車線変更開始の個別的戦術を学習する新しい方法を提案する。
交通状況や自動運転車の動作,車内ユーザのフィードバックから車線変更の開始方法を学ぶために,強化学習技術が使用されている。
論文 参考訳(メタデータ) (2020-10-29T06:21:23Z) - Action-Based Representation Learning for Autonomous Driving [8.296684637620551]
本稿では,行動に基づく運転データを学習表現に用いることを提案する。
提案手法を用いて事前学習した空き時間に基づく運転モデルでは,比較的少量の弱注釈画像が有効であることを示す。
論文 参考訳(メタデータ) (2020-08-21T10:49:13Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。