論文の概要: Expert Human-Level Driving in Gran Turismo Sport Using Deep
Reinforcement Learning with Image-based Representation
- arxiv url: http://arxiv.org/abs/2111.06449v1
- Date: Thu, 11 Nov 2021 20:31:19 GMT
- ステータス: 処理完了
- システム内更新日: 2021-11-15 13:02:29.045801
- Title: Expert Human-Level Driving in Gran Turismo Sport Using Deep
Reinforcement Learning with Image-based Representation
- Title(参考訳): イメージベース表現を用いた深層強化学習を用いたグラン・チュリモスポーツにおける熟練人間レベル運転
- Authors: Ryuji Imamura, Takuma Seno, Kenta Kawamoto, Michael Spranger
- Abstract要約: 人間のプレイヤーに勝るリアルなレーシングゲームAIエージェントは、画像ベースの環境情報を使用しない。
視覚に基づく制御アルゴリズムを提案し,人間選手のパフォーマンスと比較した。
グラン・チューリッソ・スポーツ(Gran Turismo Sport)のAIをタイムトライアルで上回り、そのスコアは、約28,000人の人間選手のトップ10%にランクインしている。
- 参考スコア(独自算出の注目度): 4.989480853499916
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: When humans play virtual racing games, they use visual environmental
information on the game screen to understand the rules within the environments.
In contrast, a state-of-the-art realistic racing game AI agent that outperforms
human players does not use image-based environmental information but the
compact and precise measurements provided by the environment. In this paper, a
vision-based control algorithm is proposed and compared with human player
performances under the same conditions in realistic racing scenarios using Gran
Turismo Sport (GTS), which is known as a high-fidelity realistic racing
simulator. In the proposed method, the environmental information that
constitutes part of the observations in conventional state-of-the-art methods
is replaced with feature representations extracted from game screen images. We
demonstrate that the proposed method performs expert human-level vehicle
control under high-speed driving scenarios even with game screen images as
high-dimensional inputs. Additionally, it outperforms the built-in AI in GTS in
a time trial task, and its score places it among the top 10% approximately
28,000 human players.
- Abstract(参考訳): 人間は仮想レースゲームをするとき、ゲーム画面上の視覚環境情報を使用して、環境内のルールを理解する。
対照的に、人間のプレイヤーに勝る最先端のリアルなレーシングゲームAIエージェントは、画像ベースの環境情報ではなく、環境が提供するコンパクトで正確な測定値を使用する。
本稿では,Gran Turismo Sport (GTS) を用いた現実的なレースシナリオにおいて,人間選手と同一条件下での視覚に基づく制御アルゴリズムを提案し,比較した。
提案手法では,従来の最先端手法における観察の一部を構成する環境情報を,ゲーム画面画像から抽出した特徴表現に置き換える。
提案手法は,高次元入力としてゲーム画面画像を用いた場合においても,高速運転シナリオにおいて熟練した人間レベル車両制御を行う。
さらに、GTSの組み込みAIをタイムトライアルのタスクで上回り、そのスコアは、約28,000人の人間のプレーヤーのトップ10%に入っている。
関連論文リスト
- Street-View Image Generation from a Bird's-Eye View Layout [95.36869800896335]
近年,Bird's-Eye View (BEV) の知覚が注目されている。
自動運転のためのデータ駆動シミュレーションは、最近の研究の焦点となっている。
本稿では,現実的かつ空間的に一貫した周辺画像を合成する条件生成モデルであるBEVGenを提案する。
論文 参考訳(メタデータ) (2023-01-11T18:39:34Z) - Policy Pre-training for End-to-end Autonomous Driving via
Self-supervised Geometric Modeling [96.31941517446859]
PPGeo (Policy Pre-training via Geometric Modeling) は,視覚運動運転における政策事前学習のための,直感的かつ直接的な完全自己教師型フレームワークである。
本研究では,大規模な未ラベル・未校正動画の3次元幾何学シーンをモデル化することにより,ポリシー表現を強力な抽象化として学習することを目的とする。
第1段階では、幾何モデリングフレームワークは、2つの連続したフレームを入力として、ポーズと深さの予測を同時に生成する。
第2段階では、視覚エンコーダは、将来のエゴモーションを予測し、現在の視覚観察のみに基づいて測光誤差を最適化することにより、運転方針表現を学習する。
論文 参考訳(メタデータ) (2023-01-03T08:52:49Z) - Game State Learning via Game Scene Augmentation [2.570570340104555]
我々はゲームエンジンを利用して、異なるゲーム状態の特定の、高度に制御されたレンダリングを定義し、合成する新しいゲームシーン拡張技術、GameCLRを紹介した。
この結果から,ゲームCLRはベースラインよりもゲーム映像からゲームの状態情報を正確に推測できる可能性が示唆された。
論文 参考訳(メタデータ) (2022-07-04T09:40:14Z) - READ: Large-Scale Neural Scene Rendering for Autonomous Driving [21.144110676687667]
自律走行シーンを合成するために,大規模ニューラルレンダリング手法を提案する。
我々のモデルは現実的な運転シーンを合成できるだけでなく、運転シーンの縫い付けや編集もできる。
論文 参考訳(メタデータ) (2022-05-11T14:02:14Z) - DriveGAN: Towards a Controllable High-Quality Neural Simulation [147.6822288981004]
DriveGANと呼ばれる新しい高品質のニューラルシミュレータを紹介します。
DriveGANは、異なるコンポーネントを監督なしで切り離すことによって制御性を達成する。
実世界の運転データ160時間を含む複数のデータセットでdriveganをトレーニングします。
論文 参考訳(メタデータ) (2021-04-30T15:30:05Z) - Learn-to-Race: A Multimodal Control Environment for Autonomous Racing [23.798765519590734]
模擬フォーミュラ-Eスタイルのレースにおいて、L2R(Learn-to-Race)が活躍する新しい環境を紹介します。
シミュレーターと対面トレーニングフレームワークを含む我々の環境は、車両のダイナミックスとレース条件を正確にモデル化する。
次に,学習からドライブへの挑戦,フォーミュラeレース,および自動運転のためのマルチモーダル軌道予測に着想を得たl2rタスクを提案する。
論文 参考訳(メタデータ) (2021-03-22T04:03:06Z) - SceneGen: Learning to Generate Realistic Traffic Scenes [92.98412203941912]
私たちは、ルールと分布の必要性を緩和するトラフィックシーンのニューラルオートレグレッシブモデルであるSceneGenを紹介します。
実トラフィックシーンの分布を忠実にモデル化するSceneGenの能力を実証する。
論文 参考訳(メタデータ) (2021-01-16T22:51:43Z) - Photorealism in Driving Simulations: Blending Generative Adversarial
Image Synthesis with Rendering [0.0]
我々は、運転シミュレーションの視覚的忠実度を改善するために、ハイブリッドな生成型ニューラルネットワークパイプラインを導入する。
テクスチャのない単純なオブジェクトモデルからなる3次元シーンから2次元のセマンティック画像を生成する。
これらのセマンティックイメージは、現実の運転シーンで訓練された最先端のジェネレーティブ・アドリア・ネットワーク(GAN)を用いて、フォトリアリスティックなRGBイメージに変換される。
論文 参考訳(メタデータ) (2020-07-31T03:25:17Z) - Learning Accurate and Human-Like Driving using Semantic Maps and
Attention [152.48143666881418]
本稿では,より正確かつ人間らしく運転できるエンド・ツー・エンド駆動モデルについて検討する。
HERE Technologiesのセマンティックマップとビジュアルマップを活用し、既存のDrive360データセットを拡張します。
私たちのモデルは、実世界の運転データ60時間3000kmのDrive360+HEREデータセットでトレーニングされ、評価されています。
論文 参考訳(メタデータ) (2020-07-10T22:25:27Z) - Visual Navigation Among Humans with Optimal Control as a Supervisor [72.5188978268463]
そこで本研究では,学習に基づく知覚とモデルに基づく最適制御を組み合わせることで,人間間をナビゲートする手法を提案する。
私たちのアプローチは、新しいデータ生成ツールであるHumANavによって実現されています。
学習したナビゲーションポリシーは、将来の人間の動きを明示的に予測することなく、人間に予測し、反応できることを実証する。
論文 参考訳(メタデータ) (2020-03-20T16:13:47Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。