論文の概要: RSL-RL: A Learning Library for Robotics Research
- arxiv url: http://arxiv.org/abs/2509.10771v1
- Date: Sat, 13 Sep 2025 01:31:43 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-16 17:26:22.773058
- Title: RSL-RL: A Learning Library for Robotics Research
- Title(参考訳): RSL-RL:ロボット研究のための学習ライブラリ
- Authors: Clemens Schwarke, Mayank Mittal, Nikita Rudin, David Hoeller, Marco Hutter,
- Abstract要約: RSL-RLは、ロボティクスコミュニティの特定のニーズに合わせたオープンソースの強化学習ライブラリである。
幅広い汎用フレームワークとは異なり、その哲学はコンパクトで容易に修正可能であり、研究者は最小限のオーバーヘッドでアルゴリズムを適応し拡張することができる。
- 参考スコア(独自算出の注目度): 9.89623087508662
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: RSL-RL is an open-source Reinforcement Learning library tailored to the specific needs of the robotics community. Unlike broad general-purpose frameworks, its design philosophy prioritizes a compact and easily modifiable codebase, allowing researchers to adapt and extend algorithms with minimal overhead. The library focuses on algorithms most widely adopted in robotics, together with auxiliary techniques that address robotics-specific challenges. Optimized for GPU-only training, RSL-RL achieves high-throughput performance in large-scale simulation environments. Its effectiveness has been validated in both simulation benchmarks and in real-world robotic experiments, demonstrating its utility as a lightweight, extensible, and practical framework to develop learning-based robotic controllers. The library is open-sourced at: https://github.com/leggedrobotics/rsl_rl.
- Abstract(参考訳): RSL-RLは、ロボティクスコミュニティの特定のニーズに合わせたオープンソースの強化学習ライブラリである。
幅広い汎用フレームワークとは異なり、その設計哲学はコンパクトで変更が容易なコードベースを優先し、研究者は最小限のオーバーヘッドでアルゴリズムを適応し拡張することができる。
このライブラリは、ロボット工学で最も広く採用されているアルゴリズムと、ロボット工学特有の課題に対処する補助的な技術に焦点を当てている。
GPUのみのトレーニングに最適化されたRSL-RLは、大規模シミュレーション環境で高スループットのパフォーマンスを実現する。
その効果は、シミュレーションベンチマークと実世界のロボット実験の両方で検証され、学習ベースのロボットコントローラを開発するための軽量で拡張性があり実用的なフレームワークとしての有用性が実証された。
このライブラリは、https://github.com/leggedrobotics/rsl_rlでオープンソース化されている。
関連論文リスト
- What Matters for Simulation to Online Reinforcement Learning on Real Robots [51.77095085120584]
物理ロボットにおけるオンライン強化学習を成功させる設計選択について検討する。
私たちはアルゴリズム、システム、実験的な決定を体系的に緩和します。
広く使用されているデフォルトのいくつかは有害であり得るが、標準RLのプラクティスにおいて、堅牢で容易に採用される設計選択のセットは、タスクやハードウェア間で安定した学習をもたらす。
論文 参考訳(メタデータ) (2026-02-23T10:34:15Z) - Robot Control Stack: A Lean Ecosystem for Robot Learning at Scale [11.166320712764465]
VLA(Vision-Language-Action Model)は、専門的なアーキテクチャと専門家ポリシーのタスクに適したコンポーネントを、大規模なデータ収集とセットアップ固有の微調整に置き換える。
従来のロボットソフトウェアフレームワークはボトルネックとなり、ロボットシミュレーションは、実世界の実験への移行を限定的にサポートする。
我々は、大規模なジェネラリストポリシーによるロボット学習の研究を支援するために、ゼロから設計されたリーンエコシステムであるRobot Control Stack (RCS)を紹介した。
論文 参考訳(メタデータ) (2025-09-18T13:12:16Z) - SERL: A Software Suite for Sample-Efficient Robotic Reinforcement Learning [82.46975428739329]
筆者らは,報酬の計算と環境のリセットを行う手法とともに,効率的なオフ・ポリティクス・ディープ・RL法を含むライブラリを開発した。
我々は,PCBボードアセンブリ,ケーブルルーティング,オブジェクトの移動に関するポリシを,非常に効率的な学習を実現することができることを発見した。
これらの政策は完全な成功率またはほぼ完全な成功率、摂動下でさえ極端な堅牢性を実現し、突発的な堅牢性回復と修正行動を示す。
論文 参考訳(メタデータ) (2024-01-29T10:01:10Z) - Learning Visual Tracking and Reaching with Deep Reinforcement Learning
on a UR10e Robotic Arm [2.2168889407389445]
強化学習アルゴリズムは、ロボットがそれらを再プログラミングすることなく、新しいタスクを完了するための最適な解を学習できる可能性を提供する。
強化学習における現在の最先端技術は、最適な性能を達成するために、高速なシミュレーションと並列化に依存している。
本稿では,産業用UR10eロボットへの深部強化学習の適用について概説する。
論文 参考訳(メタデータ) (2023-08-28T15:34:43Z) - Karolos: An Open-Source Reinforcement Learning Framework for Robot-Task
Environments [0.3867363075280544]
強化学習(RL)研究において、シミュレーションはアルゴリズム間のベンチマークを可能にする。
本稿では,ロボット応用のためのフレームワークであるKarolosを紹介する。
コードはオープンソースでGitHubに公開されており、ロボット工学におけるRLアプリケーションの研究を促進することを目的としている。
論文 参考訳(メタデータ) (2022-12-01T23:14:02Z) - Is Reinforcement Learning (Not) for Natural Language Processing?:
Benchmarks, Baselines, and Building Blocks for Natural Language Policy
Optimization [73.74371798168642]
我々は、強化学習による言語生成を最適化するためのオープンソースのモジュールライブラリRL4LMを紹介する。
次に、ターゲット文字列ではなく、報酬関数によって教師される6つの言語生成タスクのセットであるGRUEベンチマークを示す。
最後に,言語生成における動作空間を効果的に削減するNLPOアルゴリズムを提案する。
論文 参考訳(メタデータ) (2022-10-03T21:38:29Z) - Accelerating Robotic Reinforcement Learning via Parameterized Action
Primitives [92.0321404272942]
強化学習は汎用ロボットシステムの構築に使用することができる。
しかし、ロボット工学の課題を解決するためにRLエージェントを訓練することは依然として困難である。
本研究では,ロボット行動プリミティブ(RAPS)のライブラリを手動で指定し,RLポリシーで学習した引数をパラメータ化する。
動作インターフェースへの簡単な変更は、学習効率とタスクパフォーマンスの両方を大幅に改善する。
論文 参考訳(メタデータ) (2021-10-28T17:59:30Z) - SurRoL: An Open-source Reinforcement Learning Centered and dVRK
Compatible Platform for Surgical Robot Learning [78.76052604441519]
SurRoLは、ダ・ヴィンチ・リサーチキット(dVRK)と互換性のある外科ロボット学習のためのRL中心のシミュレーションプラットフォームである。
プラットフォームには10の学習ベースの外科的タスクが構築されており、実際の自律的な外科的実行に共通している。
シミュレーションにおいてRLアルゴリズムを用いてSurRoLの評価を行い、奥行き分析を行い、実際のdVRKにトレーニングされたポリシーをデプロイし、実世界でより優れた転送性を実現することを示す。
論文 参考訳(メタデータ) (2021-08-30T07:43:47Z) - RL STaR Platform: Reinforcement Learning for Simulation based Training
of Robots [3.249853429482705]
強化学習(Reinforcement Learning, RL)は、宇宙ロボット工学における自律性と意思決定能力を高めるための、有望な分野である。
本稿では,RL STaRプラットフォームについて紹介する。
論文 参考訳(メタデータ) (2020-09-21T03:09:53Z) - MushroomRL: Simplifying Reinforcement Learning Research [60.70556446270147]
MushroomRLはオープンソースのPythonライブラリで、強化学習(RL)実験の実装と実行を簡単にするために開発された。
他の利用可能なライブラリと比較して、MushroomRLは、新しいRL方法論の実装とテストの労力を最小限に抑えるために、包括的で柔軟なフレームワークを提供することを目的として作られた。
論文 参考訳(メタデータ) (2020-01-04T17:23:34Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。