論文の概要: Imitation Learning Approach for AI Driving Olympics Trained on
Real-world and Simulation Data Simultaneously
- arxiv url: http://arxiv.org/abs/2007.03514v1
- Date: Tue, 7 Jul 2020 14:48:11 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-12 18:29:36.048573
- Title: Imitation Learning Approach for AI Driving Olympics Trained on
Real-world and Simulation Data Simultaneously
- Title(参考訳): 実世界とシミュレーションデータの同時学習によるAI運転オリンピックのシミュレーション学習手法
- Authors: Mikita Sazanovich, Konstantin Chaika, Kirill Krinkin, Aleksei Shpilman
- Abstract要約: AI Driving Olympics competitionでレーン追従チャレンジを解くための、私たちの勝利のアプローチについて説明する。
擬似学習アルゴリズムを用いて,シミュレーションと実世界の双方から収集したデータセットを用いて学習を行った。
- 参考スコア(独自算出の注目度): 3.1014707658956793
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In this paper, we describe our winning approach to solving the Lane Following
Challenge at the AI Driving Olympics Competition through imitation learning on
a mixed set of simulation and real-world data. AI Driving Olympics is a
two-stage competition: at stage one, algorithms compete in a simulated
environment with the best ones advancing to a real-world final. One of the main
problems that participants encounter during the competition is that algorithms
trained for the best performance in simulated environments do not hold up in a
real-world environment and vice versa. Classic control algorithms also do not
translate well between tasks since most of them have to be tuned to specific
driving conditions such as lighting, road type, camera position, etc. To
overcome this problem, we employed the imitation learning algorithm and trained
it on a dataset collected from sources both from simulation and real-world,
forcing our model to perform equally well in all environments.
- Abstract(参考訳): 本稿では,AI Driving Olympics competitionにおけるレーン追従チャレンジの解法について,シミュレーションと実世界の混合データを用いた模擬学習を通して述べる。
AI Driving Olympicsは、2段階の競技だ。ステージ1では、アルゴリズムがシミュレーション環境で競い、最高のものが現実世界の決勝に進む。
参加者がコンペで遭遇する主な問題のひとつは、シミュレーション環境で最高のパフォーマンスのために訓練されたアルゴリズムが現実世界の環境では役に立たないことだ。
従来の制御アルゴリズムは、照明、道路タイプ、カメラ位置などの特定の運転条件に合わせて調整する必要があるため、タスク間の変換もうまく行わない。
この問題を克服するために,シミュレーションと実世界の両方から収集したデータセット上で模倣学習アルゴリズムをトレーニングし,すべての環境においてモデルが等しく動作するようにした。
関連論文リスト
- Towards Open-World Mobile Manipulation in Homes: Lessons from the Neurips 2023 HomeRobot Open Vocabulary Mobile Manipulation Challenge [93.4434417387526]
ロボット工学における鍵となるベンチマークタスクとして,Open Vocabulary Mobile Manipulationを提案する。
我々は,この課題に対する解決策を評価するために,シミュレーションと実世界のコンポーネントを兼ね備えたNeurIPS 2023コンペティションを組織した。
シミュレーションと実環境設定の両方で使用される結果と方法論を詳述する。
論文 参考訳(メタデータ) (2024-07-09T15:15:01Z) - Learning Interactive Real-World Simulators [96.5991333400566]
生成モデルを用いて実世界の相互作用の普遍的なシミュレータを学習する可能性について検討する。
シミュレーターを用いて、高レベルな視覚言語ポリシーと低レベルな強化学習ポリシーの両方を訓練する。
ビデオキャプションモデルは、シミュレートされた経験を持つトレーニングの恩恵を受けることができる。
論文 参考訳(メタデータ) (2023-10-09T19:42:22Z) - End-to-end Lidar-Driven Reinforcement Learning for Autonomous Racing [0.0]
強化学習(Reinforcement Learning, RL)は、自動化とロボット工学の領域において、変革的なアプローチとして登場した。
本研究は、フィードフォワード生ライダーと速度データのみを用いて、レース環境をナビゲートするRLエージェントを開発し、訓練する。
エージェントのパフォーマンスは、実世界のレースシナリオで実験的に評価される。
論文 参考訳(メタデータ) (2023-09-01T07:03:05Z) - Real Robot Challenge 2022: Learning Dexterous Manipulation from Offline
Data in the Real World [38.54892412474853]
リアルロボットチャレンジ2022は、強化学習とロボティクスのコミュニティの間の橋として機能した。
我々は参加者に、提供された実ロボットデータセットからプッシュ、グリップ、手動の向きを含む2つの巧妙な操作タスクを学ぶように頼んだ。
大規模なソフトウェアドキュメンテーションと、実際のセットアップのシミュレーションに基づく初期ステージにより、競争は特にアクセスしやすくなった。
論文 参考訳(メタデータ) (2023-08-15T12:40:56Z) - Discrete Control in Real-World Driving Environments using Deep
Reinforcement Learning [2.467408627377504]
本研究では,現実の環境をゲーム環境に移行させる,現実の運転環境におけるフレームワーク(知覚,計画,制御)を紹介する。
実環境における離散制御を学習し,実行するために,既存の強化学習(RL)アルゴリズムを多エージェント設定で提案する。
論文 参考訳(メタデータ) (2022-11-29T04:24:03Z) - Sim-to-Real via Sim-to-Seg: End-to-end Off-road Autonomous Driving
Without Real Data [56.49494318285391]
我々は、オフロード自動運転の視覚的現実的ギャップを横断するRCANを再想像するSim2Segを紹介する。
これは、ランダム化されたシミュレーション画像をシミュレートされたセグメンテーションと深さマップに変換する学習によって行われる。
これにより、シミュレーションでエンドツーエンドのRLポリシーをトレーニングし、現実世界に直接デプロイできます。
論文 参考訳(メタデータ) (2022-10-25T17:50:36Z) - DeXtreme: Transfer of Agile In-hand Manipulation from Simulation to
Reality [64.51295032956118]
我々は人型ロボットの手で頑健な操作を行える政策を訓練する。
本研究は,各種ハードウェアおよびシミュレータのデクスタラス操作におけるsim-to-real転送の可能性を再確認する。
論文 参考訳(メタデータ) (2022-10-25T01:51:36Z) - Learning to Simulate on Sparse Trajectory Data [26.718807213824853]
本稿では,実世界のスパースデータから運転行動をシミュレートする学習問題に対処するための新しいフレームワーク imingail を提案する。
私たちの知る限りでは、行動学習問題に対するデータ疎結合問題に最初に取り組みます。
論文 参考訳(メタデータ) (2021-03-22T13:42:11Z) - Reactive Long Horizon Task Execution via Visual Skill and Precondition
Models [59.76233967614774]
シミュレーションで学習したモデルを用いて、単純なタスクプランナの構成要素をグラウンド化することで、見知らぬロボットタスクを達成できるシミュレート・トゥ・リアル・トレーニングのアプローチについて述べる。
シミュレーションでは91.6%から98%,実世界の成功率は10%から80%に増加した。
論文 参考訳(メタデータ) (2020-11-17T15:24:01Z) - Robust Reinforcement Learning-based Autonomous Driving Agent for
Simulation and Real World [0.0]
本稿では,Deep Q-Networks (DQN) を用いた自律型ロボット制御を実現するDRLベースのアルゴリズムを提案する。
本手法では,エージェントはシミュレーション環境で訓練され,シミュレーション環境と実環境環境の両方をナビゲートすることができる。
トレーニングされたエージェントは限られたハードウェアリソース上で動作することができ、そのパフォーマンスは最先端のアプローチに匹敵する。
論文 参考訳(メタデータ) (2020-09-23T15:23:54Z) - RoboTHOR: An Open Simulation-to-Real Embodied AI Platform [56.50243383294621]
インタラクティブで具体化された視覚AIの研究を民主化するためにRoboTHORを導入する。
シミュレーションで訓練されたモデルの性能は,シミュレーションと慎重に構築された物理アナログの両方で試験される場合,大きな差があることが示される。
論文 参考訳(メタデータ) (2020-04-14T20:52:49Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。