論文の概要: RobocupGym: A challenging continuous control benchmark in Robocup
- arxiv url: http://arxiv.org/abs/2407.14516v1
- Date: Wed, 3 Jul 2024 15:26:32 GMT
- ステータス: 処理完了
- システム内更新日: 2024-07-28 18:39:09.777171
- Title: RobocupGym: A challenging continuous control benchmark in Robocup
- Title(参考訳): RobocupGym: Robocupの困難な継続的制御ベンチマーク
- Authors: Michael Beukman, Branden Ingram, Geraud Nangue Tasse, Benjamin Rosman, Pravesh Ranchod,
- Abstract要約: 本稿では,オープンソースのrcssserver3dサッカーサーバをベースとしたRobocupベースのRL環境を提案する。
各タスクでは、RLエージェントがシミュレートされたロボットを制御し、ボールや他のエージェントと対話することができる。
- 参考スコア(独自算出の注目度): 7.926196208425107
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Reinforcement learning (RL) has progressed substantially over the past decade, with much of this progress being driven by benchmarks. Many benchmarks are focused on video or board games, and a large number of robotics benchmarks lack diversity and real-world applicability. In this paper, we aim to simplify the process of applying reinforcement learning in the 3D simulation league of Robocup, a robotic football competition. To this end, we introduce a Robocup-based RL environment based on the open source rcssserver3d soccer server, simple pre-defined tasks, and integration with a popular RL library, Stable Baselines 3. Our environment enables the creation of high-dimensional continuous control tasks within a robotics football simulation. In each task, an RL agent controls a simulated Nao robot, and can interact with the ball or other agents. We open-source our environment and training code at https://github.com/Michael-Beukman/RobocupGym.
- Abstract(参考訳): 強化学習(Reinforcement Learning, RL)は、過去10年間で大幅に進歩し、その大部分がベンチマークによって推進されている。
多くのベンチマークはビデオやボードゲームに重点を置いており、多くのロボティクスベンチマークには多様性と現実の応用性がない。
本稿では,ロボットサッカーコンペティションであるRobocupの3Dシミュレーションリーグにおいて,強化学習を適用するプロセスを簡単にすることを目的とする。
この目的のために、オープンソースのrcssserver3dサッカーサーバをベースにしたRobocupベースのRL環境、シンプルな事前定義されたタスク、人気のあるRLライブラリであるStable Baselines 3との統合を紹介する。
我々の環境はロボットフットボールシミュレーションにおける高次元連続制御タスクの作成を可能にする。
各タスクでは、RLエージェントがシミュレートされた直ロボットを制御し、ボールや他のエージェントと対話することができる。
私たちは環境とトレーニングコードをhttps://github.com/Michael-Beukman/RobocupGym.comでオープンソースにしています。
関連論文リスト
- Automatic Environment Shaping is the Next Frontier in RL [20.894840942319323]
多くのロボット学者は、夕方にタスクを持ったロボットを提示し、翌朝にそのタスクを解くことができるロボットを見つけることを夢見ている。
実際の強化学習は、挑戦的なロボティクスのタスクにおいて素晴らしいパフォーマンスを達成したが、そのタスクをRLに相応しい方法でセットアップするには、相当な人的努力が必要である。
政策最適化やその他のアイデアのアルゴリズムによる改善は、トレーニング環境を形作る際の主要なボトルネックを解決するために導かれるべきだ、という私たちの立場です。
論文 参考訳(メタデータ) (2024-07-23T05:22:29Z) - Robot Air Hockey: A Manipulation Testbed for Robot Learning with Reinforcement Learning [34.055177769808914]
本稿では,ロボットエアホッケーに基づく動的対話型RLテストベッドを提案する。
我々のテストベッドは、RL能力の様々な評価を可能にします。
ロボットのエアホッケーテストベッドは、3つのドメインでシミュレート・トゥ・リアル・トランスファーをサポートする。
論文 参考訳(メタデータ) (2024-05-06T02:13:08Z) - RoboScript: Code Generation for Free-Form Manipulation Tasks across Real
and Simulation [77.41969287400977]
本稿では,コード生成を利用したデプロイ可能なロボット操作パイプラインのためのプラットフォームである textbfRobotScript を提案する。
自由形自然言語におけるロボット操作タスクのためのコード生成ベンチマークも提案する。
我々は,Franka と UR5 のロボットアームを含む,複数のロボットエボディメントにまたがるコード生成フレームワークの適応性を実証した。
論文 参考訳(メタデータ) (2024-02-22T15:12:00Z) - SERL: A Software Suite for Sample-Efficient Robotic Reinforcement
Learning [85.21378553454672]
筆者らは,報酬の計算と環境のリセットを行う手法とともに,効率的なオフ・ポリティクス・ディープ・RL法を含むライブラリを開発した。
我々は,PCBボードアセンブリ,ケーブルルーティング,オブジェクトの移動に関するポリシを,非常に効率的な学習を実現することができることを発見した。
これらの政策は完全な成功率またはほぼ完全な成功率、摂動下でさえ極端な堅牢性を実現し、突発的な堅牢性回復と修正行動を示す。
論文 参考訳(メタデータ) (2024-01-29T10:01:10Z) - Fleet-DAgger: Interactive Robot Fleet Learning with Scalable Human
Supervision [72.4735163268491]
ロボットの商業的および産業的な展開は、実行中にリモートの人間のテレオペレーターにフォールバックすることが多い。
我々は対話型フリートラーニング(Interactive Fleet Learning, IFL)の設定を定式化し、複数のロボットが対話型クエリを行い、複数の人間スーパーバイザーから学習する。
IFLアルゴリズムのファミリーであるFleet-DAggerを提案し、新しいFleet-DAggerアルゴリズムをシミュレーションで4つのベースラインと比較する。
論文 参考訳(メタデータ) (2022-06-29T01:23:57Z) - Accelerating Robotic Reinforcement Learning via Parameterized Action
Primitives [92.0321404272942]
強化学習は汎用ロボットシステムの構築に使用することができる。
しかし、ロボット工学の課題を解決するためにRLエージェントを訓練することは依然として困難である。
本研究では,ロボット行動プリミティブ(RAPS)のライブラリを手動で指定し,RLポリシーで学習した引数をパラメータ化する。
動作インターフェースへの簡単な変更は、学習効率とタスクパフォーマンスの両方を大幅に改善する。
論文 参考訳(メタデータ) (2021-10-28T17:59:30Z) - How to Train Your Robot with Deep Reinforcement Learning; Lessons We've
Learned [111.06812202454364]
本稿では,ロボット深部RLのケーススタディをいくつか紹介する。
深部RLにおける一般的な課題と,それらの課題について論じる。
また、他の卓越した課題についても概説し、その多くが現実世界のロボティクスの設定に特有のものである。
論文 参考訳(メタデータ) (2021-02-04T22:09:28Z) - RL STaR Platform: Reinforcement Learning for Simulation based Training
of Robots [3.249853429482705]
強化学習(Reinforcement Learning, RL)は、宇宙ロボット工学における自律性と意思決定能力を高めるための、有望な分野である。
本稿では,RL STaRプラットフォームについて紹介する。
論文 参考訳(メタデータ) (2020-09-21T03:09:53Z) - A Framework for Studying Reinforcement Learning and Sim-to-Real in Robot
Soccer [1.1785354380793065]
本稿では,ロボットサッカーにおける強化学習(Reinforcement Learning, RL)とsim-to-realを研究するための,VSSS-RLと呼ばれるオープンフレームワークを紹介する。
本研究では,サッカーエージェントの完全な動作を制御するために,連続的あるいは離散的な制御ポリシーを訓練できるシミュレーション環境を提案する。
本研究の結果から,手作り制御政策の実施が困難な行動の幅広いレパートリーを学習したことが示唆された。
論文 参考訳(メタデータ) (2020-08-18T23:52:32Z) - robo-gym -- An Open Source Toolkit for Distributed Deep Reinforcement
Learning on Real and Simulated Robots [0.5161531917413708]
本稿では,ロボットによる深層強化学習を向上するためのオープンソースのツールキット,robo-gymを提案する。
シミュレーションにおけるトレーニングからロボットへのシームレスな移動を可能にするシミュレーション環境と実環境の統一的なセットアップを実証する。
産業用ロボットを特徴とする2つの実世界アプリケーションを用いて,本フレームワークの能力と有効性を示す。
論文 参考訳(メタデータ) (2020-07-06T13:51:33Z) - Learning to Walk in the Real World with Minimal Human Effort [80.7342153519654]
我々は,人間の努力を最小限に抑えて,現実世界の深いRLを用いた足の移動ポリシーを学習するシステムを開発した。
人間の介入がほとんどないミニチュアロボットにおいて,ロボットの移動スキルを自動的かつ効率的に学習することができる。
論文 参考訳(メタデータ) (2020-02-20T03:36:39Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。