論文の概要: Karolos: An Open-Source Reinforcement Learning Framework for Robot-Task
Environments
- arxiv url: http://arxiv.org/abs/2212.00906v1
- Date: Thu, 1 Dec 2022 23:14:02 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-05 17:36:14.641911
- Title: Karolos: An Open-Source Reinforcement Learning Framework for Robot-Task
Environments
- Title(参考訳): Karolos: ロボットタスク環境のためのオープンソースの強化学習フレームワーク
- Authors: Christian Bitter, Timo Thun, Tobias Meisen
- Abstract要約: 強化学習(RL)研究において、シミュレーションはアルゴリズム間のベンチマークを可能にする。
本稿では,ロボット応用のためのフレームワークであるKarolosを紹介する。
コードはオープンソースでGitHubに公開されており、ロボット工学におけるRLアプリケーションの研究を促進することを目的としている。
- 参考スコア(独自算出の注目度): 0.3867363075280544
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: In reinforcement learning (RL) research, simulations enable benchmarks
between algorithms, as well as prototyping and hyper-parameter tuning of
agents. In order to promote RL both in research and real-world applications,
frameworks are required which are on the one hand efficient in terms of running
experiments as fast as possible. On the other hand, they must be flexible
enough to allow the integration of newly developed optimization techniques,
e.g. new RL algorithms, which are continuously put forward by an active
research community. In this paper, we introduce Karolos, a RL framework
developed for robotic applications, with a particular focus on transfer
scenarios with varying robot-task combinations reflected in a modular
environment architecture. In addition, we provide implementations of
state-of-the-art RL algorithms along with common learning-facilitating
enhancements, as well as an architecture to parallelize environments across
multiple processes to significantly speed up experiments. The code is open
source and published on GitHub with the aim of promoting research of RL
applications in robotics.
- Abstract(参考訳): 強化学習(RL)研究において、シミュレーションはエージェントのプロトタイピングやハイパーパラメータチューニングと同様に、アルゴリズム間のベンチマークを可能にする。
研究と実世界のアプリケーションの両方においてRLを推進するためには、実験をできるだけ早く実行するためには、一方的に効率的であるフレームワークが必要である。
一方、新しい最適化手法、例えば、アクティブな研究コミュニティによって継続的に推進される新しいRLアルゴリズムの統合を可能にするには、柔軟でなければならない。
本稿では,ロボットアプリケーション用に開発されたRLフレームワークであるKarolosを紹介する。
さらに,現状のRLアルゴリズムの実装や,学習能力の向上,複数のプロセスにまたがって環境を並列化し,実験を著しく高速化するアーキテクチャも提供する。
このコードはオープンソースであり、ロボティクスにおけるrlアプリケーションの研究を促進する目的でgithubで公開されている。
関連論文リスト
- Multi-Agent Environments for Vehicle Routing Problems [1.0179489519625304]
本稿では,従来の車両ルーティング問題をシミュレートするマルチエージェント環境からなるライブラリを提案する。
PyTorch上に構築されたこのライブラリは、新しいルーティング問題のカスタマイズと導入を容易にする、柔軟なモジュラーアーキテクチャ設計を提供する。
論文 参考訳(メタデータ) (2024-11-21T18:46:23Z) - SERL: A Software Suite for Sample-Efficient Robotic Reinforcement
Learning [85.21378553454672]
筆者らは,報酬の計算と環境のリセットを行う手法とともに,効率的なオフ・ポリティクス・ディープ・RL法を含むライブラリを開発した。
我々は,PCBボードアセンブリ,ケーブルルーティング,オブジェクトの移動に関するポリシを,非常に効率的な学習を実現することができることを発見した。
これらの政策は完全な成功率またはほぼ完全な成功率、摂動下でさえ極端な堅牢性を実現し、突発的な堅牢性回復と修正行動を示す。
論文 参考訳(メタデータ) (2024-01-29T10:01:10Z) - Scilab-RL: A software framework for efficient reinforcement learning and
cognitive modeling research [0.0]
Scilab-RLは、ロボットエージェントの認知モデリングと強化学習を効率的に研究するためのソフトウェアフレームワークである。
これは、Stable Baselines 3とOpenAIのジムインターフェースを使った目標条件強化学習に焦点を当てている。
これらの特徴によって、研究者が最小限の時間で実験を行うことで、研究成果を最大化する方法について説明する。
論文 参考訳(メタデータ) (2024-01-25T19:49:02Z) - RLLTE: Long-Term Evolution Project of Reinforcement Learning [48.181733263496746]
本稿では,RLLTEについて紹介する。RLLTEは長期的進化であり,高度にモジュール化された,強化学習研究と応用のためのオープンソースフレームワークである。
トップノーチアルゴリズムの実装を提供するだけでなく、RLLTEはアルゴリズム開発のためのツールキットとしても機能する。
RLLTEは、RLエンジニアリングの基準を設定し、産業や学界に高い刺激を与えると期待されている。
論文 参考訳(メタデータ) (2023-09-28T12:30:37Z) - MARLIN: Soft Actor-Critic based Reinforcement Learning for Congestion
Control in Real Networks [63.24965775030673]
そこで本研究では,汎用的な渋滞制御(CC)アルゴリズムを設計するための新しい強化学習(RL)手法を提案する。
我々の解であるMARLINは、Soft Actor-Criticアルゴリズムを用いてエントロピーとリターンの両方を最大化する。
我々は,MARLINを実ネットワーク上で訓練し,実ミスマッチを克服した。
論文 参考訳(メタデータ) (2023-02-02T18:27:20Z) - A Memetic Algorithm with Reinforcement Learning for Sociotechnical
Production Scheduling [0.0]
本稿では、フレキシブルジョブショップスケジューリング問題(DRC-FJSSP)に深層強化学習(DRL)を適用したメメティックアルゴリズムを提案する。
産業における研究プロジェクトから、フレキシブルマシン、フレキシブルなヒューマンワーカー、作業能力、セットアップと処理操作、材料到着時間、材料製造の請求書の並列タスク、シーケンス依存のセットアップ時間、人間と機械のコラボレーションにおける(一部)自動化タスクを検討する必要性を認識します。
論文 参考訳(メタデータ) (2022-12-21T11:24:32Z) - Hyperparameter Tuning for Deep Reinforcement Learning Applications [0.3553493344868413]
本稿では,分散可変長遺伝的アルゴリズムを用いて,様々なRLアプリケーションに対してハイパーパラメータをチューニングする手法を提案する。
以上の結果から, より世代を要し, トレーニングエピソードが少なく, 計算コストも安価で, デプロイの堅牢性も高い最適解が得られた。
論文 参考訳(メタデータ) (2022-01-26T20:43:13Z) - Accelerating Robotic Reinforcement Learning via Parameterized Action
Primitives [92.0321404272942]
強化学習は汎用ロボットシステムの構築に使用することができる。
しかし、ロボット工学の課題を解決するためにRLエージェントを訓練することは依然として困難である。
本研究では,ロボット行動プリミティブ(RAPS)のライブラリを手動で指定し,RLポリシーで学習した引数をパラメータ化する。
動作インターフェースへの簡単な変更は、学習効率とタスクパフォーマンスの両方を大幅に改善する。
論文 参考訳(メタデータ) (2021-10-28T17:59:30Z) - SurRoL: An Open-source Reinforcement Learning Centered and dVRK
Compatible Platform for Surgical Robot Learning [78.76052604441519]
SurRoLは、ダ・ヴィンチ・リサーチキット(dVRK)と互換性のある外科ロボット学習のためのRL中心のシミュレーションプラットフォームである。
プラットフォームには10の学習ベースの外科的タスクが構築されており、実際の自律的な外科的実行に共通している。
シミュレーションにおいてRLアルゴリズムを用いてSurRoLの評価を行い、奥行き分析を行い、実際のdVRKにトレーニングされたポリシーをデプロイし、実世界でより優れた転送性を実現することを示す。
論文 参考訳(メタデータ) (2021-08-30T07:43:47Z) - Scenic4RL: Programmatic Modeling and Generation of Reinforcement
Learning Environments [89.04823188871906]
リアルタイム戦略(RTS)環境では,多様な現実シナリオの生成が難しい。
既存のシミュレータのほとんどは環境をランダムに生成することに頼っている。
我々は、研究者を支援するために、既存の形式シナリオ仕様言語であるSCENICを採用する利点を紹介する。
論文 参考訳(メタデータ) (2021-06-18T21:49:46Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。