論文の概要: Discrete Control in Real-World Driving Environments using Deep
Reinforcement Learning
- arxiv url: http://arxiv.org/abs/2211.15920v2
- Date: Wed, 30 Nov 2022 17:25:23 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-01 15:08:58.223504
- Title: Discrete Control in Real-World Driving Environments using Deep
Reinforcement Learning
- Title(参考訳): 深部強化学習を用いた実環境における離散制御
- Authors: Avinash Amballa, Advaith P., Pradip Sasmal, and Sumohana Channappayya
- Abstract要約: 本研究では,現実の環境をゲーム環境に移行させる,現実の運転環境におけるフレームワーク(知覚,計画,制御)を紹介する。
実環境における離散制御を学習し,実行するために,既存の強化学習(RL)アルゴリズムを多エージェント設定で提案する。
- 参考スコア(独自算出の注目度): 2.467408627377504
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Training self-driving cars is often challenging since they require a vast
amount of labeled data in multiple real-world contexts, which is
computationally and memory intensive. Researchers often resort to driving
simulators to train the agent and transfer the knowledge to a real-world
setting. Since simulators lack realistic behavior, these methods are quite
inefficient. To address this issue, we introduce a framework (perception,
planning, and control) in a real-world driving environment that transfers the
real-world environments into gaming environments by setting up a reliable
Markov Decision Process (MDP). We propose variations of existing Reinforcement
Learning (RL) algorithms in a multi-agent setting to learn and execute the
discrete control in real-world environments. Experiments show that the
multi-agent setting outperforms the single-agent setting in all the scenarios.
We also propose reliable initialization, data augmentation, and training
techniques that enable the agents to learn and generalize to navigate in a
real-world environment with minimal input video data, and with minimal
training. Additionally, to show the efficacy of our proposed algorithm, we
deploy our method in the virtual driving environment TORCS.
- Abstract(参考訳): 自動運転車の訓練は、複数の実世界のコンテキストにおいて大量のラベル付きデータを必要とするため、しばしば困難である。
研究者はしばしばシミュレーターを駆動してエージェントを訓練し、知識を現実世界の環境に移す。
シミュレータには現実的な振る舞いがないため、これらの手法は非常に非効率である。
この問題に対処するため,実世界の環境をゲーム環境に移行させるフレームワーク(知覚,計画,制御)を導入し,信頼性の高いマルコフ決定プロセス(MDP)を構築した。
実環境における離散制御を学習し,実行するために,既存の強化学習(RL)アルゴリズムを多エージェント設定で提案する。
実験の結果、マルチエージェント設定はすべてのシナリオでシングルエージェント設定よりも優れていた。
また,エージェントが最小限の入力ビデオデータと最小限のトレーニングで実環境を学習・一般化することのできる,信頼性の高い初期化,データ拡張,トレーニング技術を提案する。
さらに,提案アルゴリズムの有効性を示すため,仮想運転環境 TORCS に本手法をデプロイする。
関連論文リスト
- Sim-to-real Transfer of Deep Reinforcement Learning Agents for Online Coverage Path Planning [15.792914346054502]
我々は、カバーパス計画(CPP)のための強化学習エージェント(RL)のSim-to-real転送の課題に取り組む。
実際のロボット運動学やリアルタイムの側面を含む、シミュレーションされたセンサーと障害物で、半仮想環境を通して、シミュレーションと現実のギャップを橋渡しする。
高速モデル推論周波数はsim-to-realギャップを減らすのに十分であり、微調整は最初は性能を劣化させる。
論文 参考訳(メタデータ) (2024-06-07T13:24:19Z) - Waymax: An Accelerated, Data-Driven Simulator for Large-Scale Autonomous
Driving Research [76.93956925360638]
Waymaxは、マルチエージェントシーンにおける自動運転のための新しいデータ駆動シミュレータである。
TPU/GPUなどのハードウェアアクセラレータで完全に動作し、トレーニング用のグラフ内シミュレーションをサポートする。
我々は、一般的な模倣と強化学習アルゴリズムのスイートをベンチマークし、異なる設計決定に関するアブレーション研究を行った。
論文 参考訳(メタデータ) (2023-10-12T20:49:15Z) - Sim-to-Real via Sim-to-Seg: End-to-end Off-road Autonomous Driving
Without Real Data [56.49494318285391]
我々は、オフロード自動運転の視覚的現実的ギャップを横断するRCANを再想像するSim2Segを紹介する。
これは、ランダム化されたシミュレーション画像をシミュレートされたセグメンテーションと深さマップに変換する学習によって行われる。
これにより、シミュレーションでエンドツーエンドのRLポリシーをトレーニングし、現実世界に直接デプロイできます。
論文 参考訳(メタデータ) (2022-10-25T17:50:36Z) - A Walk in the Park: Learning to Walk in 20 Minutes With Model-Free
Reinforcement Learning [86.06110576808824]
深層強化学習は、制御されていない環境での学習ポリシーに対する有望なアプローチである。
機械学習アルゴリズムとライブラリの最近の進歩と、慎重に調整されたロボットコントローラを組み合わせることで、現実世界では4分で学習できる。
論文 参考訳(メタデータ) (2022-08-16T17:37:36Z) - Data generation using simulation technology to improve perception
mechanism of autonomous vehicles [0.0]
実世界から収集したデータと模擬世界から生成されたデータを組み合わせることで、認識システムを訓練する効果を実証する。
また,人間の学習体験をエミュレートすることを目的とした多段階深層学習知覚フレームワークを提案する。
論文 参考訳(メタデータ) (2022-07-01T03:42:33Z) - Towards Optimal Strategies for Training Self-Driving Perception Models
in Simulation [98.51313127382937]
合成ドメインのみにおけるラベルの使用に焦点を当てる。
提案手法では,ニューラル不変表現の学習方法と,シミュレータからデータをサンプリングする方法に関する理論的にインスピレーションを得た視点を導入する。
マルチセンサーデータを用いた鳥眼視車両分割作業におけるアプローチについて紹介する。
論文 参考訳(メタデータ) (2021-11-15T18:37:43Z) - Vision-Based Autonomous Car Racing Using Deep Imitative Reinforcement
Learning [13.699336307578488]
深層模倣強化学習(DIRL)は、視覚入力を使用してアジャイルな自律レースを実現する。
我々は,高忠実性運転シミュレーションと実世界の1/20スケールRC-car上での車載計算の制限により,本アルゴリズムの有効性を検証した。
論文 参考訳(メタデータ) (2021-07-18T00:00:48Z) - DriveGAN: Towards a Controllable High-Quality Neural Simulation [147.6822288981004]
DriveGANと呼ばれる新しい高品質のニューラルシミュレータを紹介します。
DriveGANは、異なるコンポーネントを監督なしで切り離すことによって制御性を達成する。
実世界の運転データ160時間を含む複数のデータセットでdriveganをトレーニングします。
論文 参考訳(メタデータ) (2021-04-30T15:30:05Z) - Learning to Simulate on Sparse Trajectory Data [26.718807213824853]
本稿では,実世界のスパースデータから運転行動をシミュレートする学習問題に対処するための新しいフレームワーク imingail を提案する。
私たちの知る限りでは、行動学習問題に対するデータ疎結合問題に最初に取り組みます。
論文 参考訳(メタデータ) (2021-03-22T13:42:11Z) - TrafficSim: Learning to Simulate Realistic Multi-Agent Behaviors [74.67698916175614]
リアル交通シミュレーションのためのマルチエージェント行動モデルであるTrafficSimを提案する。
特に、暗黙の潜在変数モデルを利用して、共同アクターポリシーをパラメータ化する。
TrafficSimは、多様なベースラインと比較して、より現実的で多様なトラフィックシナリオを生成します。
論文 参考訳(メタデータ) (2021-01-17T00:29:30Z) - Robust Reinforcement Learning-based Autonomous Driving Agent for
Simulation and Real World [0.0]
本稿では,Deep Q-Networks (DQN) を用いた自律型ロボット制御を実現するDRLベースのアルゴリズムを提案する。
本手法では,エージェントはシミュレーション環境で訓練され,シミュレーション環境と実環境環境の両方をナビゲートすることができる。
トレーニングされたエージェントは限られたハードウェアリソース上で動作することができ、そのパフォーマンスは最先端のアプローチに匹敵する。
論文 参考訳(メタデータ) (2020-09-23T15:23:54Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。