論文の概要: Ray Based Distributed Autonomous Vehicle Research Platform
- arxiv url: http://arxiv.org/abs/2201.06835v1
- Date: Tue, 18 Jan 2022 09:13:27 GMT
- ステータス: 処理完了
- システム内更新日: 2022-01-19 18:31:17.530402
- Title: Ray Based Distributed Autonomous Vehicle Research Platform
- Title(参考訳): レイベース分散型自動運転車研究プラットフォーム
- Authors: Derek Xu
- Abstract要約: このプロジェクトは、シミュレーター(Carla)を使って自動運転車の迅速な訓練にRayが使えるかどうかという問題に取り組む。
カーラ(Carla)は、モデルトレーニングに使用されるデータを生成する車両シミュレータである。
プロジェクトの大部分が、Ray氏が分散モデルのトレーニングに使用するトレーニングロジックを書いていました。
- 参考スコア(独自算出の注目度): 1.90365714903665
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: My project tackles the question of whether Ray can be used to quickly train
autonomous vehicles using a simulator (Carla), and whether a platform robust
enough for further research purposes can be built around it. Ray is an
open-source framework that enables distributed machine learning applications.
Distributed computing is a technique which parallelizes computational tasks,
such as training a model, among many machines. Ray abstracts away the complex
coordination of these machines, making it rapidly scalable. Carla is a vehicle
simulator that generates data used to train a model. The bulk of the project
was writing the training logic that Ray would use to train my distributed
model. Imitation learning is the best fit for autonomous vehicles. Imitation
learning is an alternative to reinforcement learning and it works by trying to
learn the optimal policy by imitating an expert (usually a human) given a set
of demonstrations. A key deliverable for the project was showcasing my trained
agent in a few benchmark tests, such as navigating a complex turn through
traffic. Beyond that, the broader ambition was to develop a research platform
where others could quickly train and run experiments on huge amounts of Carla
vehicle data. Thus, my end product is not a single model, but a large-scale,
open-source research platform (RayCarla) for autonomous vehicle researchers to
utilize.
- Abstract(参考訳): 私のプロジェクトは、シミュレーター(Carla)を使った自動運転車の迅速な訓練にRayが使えるのか、さらに研究目的のために十分な頑丈なプラットフォームを構築できるのか、という問題に取り組みました。
rayは、分散機械学習アプリケーションを可能にするオープンソースのフレームワークである。
分散コンピューティング(distributed computing)は、モデルトレーニングなどの計算タスクを多くのマシンで並列化する技術である。
Rayはこれらのマシンの複雑な調整を抽象化し、急速にスケーラブルにする。
carlaはモデルトレーニングに使用されるデータを生成する車両シミュレータである。
プロジェクトの大部分が、Ray氏が分散モデルのトレーニングに使用するトレーニングロジックを書いていました。
模倣学習は自動運転車に最適だ。
模倣学習は強化学習の代替であり、与えられた一連のデモンストレーションを専門家(通常は人間)に模倣することで最適な方針を学習しようとする。
プロジェクトの重要な成果は、複雑なターンスルートラフィックのナビゲートなど、トレーニングされたエージェントをいくつかのベンチマークテストで紹介することだった。
さらに大きな野心は、他の人が大量のCarla車のデータですばやく実験を訓練し実行できる研究プラットフォームを開発することだった。
したがって、私の最終製品は単一のモデルではなく、自動運転車研究者が利用できる大規模なオープンソースの研究プラットフォーム(RayCarla)です。
関連論文リスト
- VREM-FL: Mobility-Aware Computation-Scheduling Co-Design for Vehicular
Federated Learning [2.7892067588273513]
本稿では,車載フェデレート学習のための計算スケジューリング協調設計であるVREM-FLを提案する。
提案アルゴリズムは、無線リソース使用のためのトレードモデルトレーニング時間に調整することができる。
VREM-FLは、線形回帰モデル(学習時間を28%削減)と、セマンティックイメージセグメンテーションタスクのためのディープニューラルネットワークの両方のベンチマークより優れている。
論文 参考訳(メタデータ) (2023-11-30T17:38:54Z) - Waymax: An Accelerated, Data-Driven Simulator for Large-Scale Autonomous
Driving Research [76.93956925360638]
Waymaxは、マルチエージェントシーンにおける自動運転のための新しいデータ駆動シミュレータである。
TPU/GPUなどのハードウェアアクセラレータで完全に動作し、トレーニング用のグラフ内シミュレーションをサポートする。
我々は、一般的な模倣と強化学習アルゴリズムのスイートをベンチマークし、異なる設計決定に関するアブレーション研究を行った。
論文 参考訳(メタデータ) (2023-10-12T20:49:15Z) - Rethinking Closed-loop Training for Autonomous Driving [82.61418945804544]
本研究は,学習エージェントの成功に対する異なるトレーニングベンチマーク設計の影響を分析した最初の実証的研究である。
複数ステップのルックアヘッドで計画を行うRLベースの駆動エージェントであるtrajectory value learning (TRAVL)を提案する。
実験の結果,TRAVLはすべてのベースラインと比較してより速く学習でき,安全な操作が可能であることがわかった。
論文 参考訳(メタデータ) (2023-06-27T17:58:39Z) - Parallel Reinforcement Learning Simulation for Visual Quadrotor
Navigation [4.597465975849579]
強化学習(Reinforcement Learning、RL)は、ロボットに物理的な世界の中をナビゲートするように教えるエージェントベースのアプローチである。
本稿では,AirSim上に構築された並列学習を効率的に行うシミュレーションフレームワークを提案する。
このフレームワーク上に構築されたApe-Xは、AirSim環境の分散トレーニングを組み込むように修正されている。
論文 参考訳(メタデータ) (2022-09-22T15:27:42Z) - ElegantRL-Podracer: Scalable and Elastic Library for Cloud-Native Deep
Reinforcement Learning [141.58588761593955]
クラウドネイティブな深層強化学習のためのライブラリElegantRL-podracerを提案する。
数百万のコアを効率的にサポートし、複数のレベルで大規模な並列トレーニングを実行する。
低レベルでは、各ポッドは1つのGPUで7,000近いGPUコアをフル活用することで、エージェントと環境のインタラクションを並列にシミュレートする。
論文 参考訳(メタデータ) (2021-12-11T06:31:21Z) - Towards Optimal Strategies for Training Self-Driving Perception Models
in Simulation [98.51313127382937]
合成ドメインのみにおけるラベルの使用に焦点を当てる。
提案手法では,ニューラル不変表現の学習方法と,シミュレータからデータをサンプリングする方法に関する理論的にインスピレーションを得た視点を導入する。
マルチセンサーデータを用いた鳥眼視車両分割作業におけるアプローチについて紹介する。
論文 参考訳(メタデータ) (2021-11-15T18:37:43Z) - Vision-Based Autonomous Car Racing Using Deep Imitative Reinforcement
Learning [13.699336307578488]
深層模倣強化学習(DIRL)は、視覚入力を使用してアジャイルな自律レースを実現する。
我々は,高忠実性運転シミュレーションと実世界の1/20スケールRC-car上での車載計算の制限により,本アルゴリズムの有効性を検証した。
論文 参考訳(メタデータ) (2021-07-18T00:00:48Z) - SMARTS: Scalable Multi-Agent Reinforcement Learning Training School for
Autonomous Driving [96.50297622371457]
マルチエージェントインタラクションは、現実の世界における自律運転の基本的な側面である。
研究と開発が10年以上続いたにもかかわらず、様々なシナリオで多様な道路ユーザーと対話する方法の問題は未解決のままである。
SMARTSと呼ばれる,多種多様な運転インタラクションを生成する専用シミュレーションプラットフォームを開発した。
論文 参考訳(メタデータ) (2020-10-19T18:26:10Z) - Sample Factory: Egocentric 3D Control from Pixels at 100000 FPS with
Asynchronous Reinforcement Learning [68.2099740607854]
サンプルファクトリー(Sample Factory)は、シングルマシン設定に最適化された高スループットトレーニングシステムである。
我々のアーキテクチャは、非常に効率的で非同期なGPUベースのサンプリングと、オフポリシー補正技術を組み合わせています。
我々は,Sample Factoryを拡張して,セルフプレイと人口ベーストレーニングをサポートし,これらのテクニックを多人数一対一シューティングゲームのための高度なエージェントの訓練に応用する。
論文 参考訳(メタデータ) (2020-06-21T10:00:23Z) - An Active Learning Framework for Constructing High-fidelity Mobility
Maps [0.0]
本稿では,機械学習分類器の学習に必要なシミュレーション数を,精度を犠牲にすることなく大幅に削減する,能動的学習パラダイムを提案する。
実験結果から, ランダムサンプリングと比較した場合のシミュレーション回数の半分以下を用いて, ニューラルネットワークを高精度に学習できることが示唆された。
論文 参考訳(メタデータ) (2020-03-07T04:50:58Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。