論文の概要: ObjectRL: An Object-Oriented Reinforcement Learning Codebase
- arxiv url: http://arxiv.org/abs/2507.03487v1
- Date: Fri, 04 Jul 2025 11:27:52 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-07-08 15:46:34.751091
- Title: ObjectRL: An Object-Oriented Reinforcement Learning Codebase
- Title(参考訳): ObjectRL: オブジェクト指向強化学習コードベース
- Authors: Gulcin Baykal, Abdullah Akgül, Manuel Haussmann, Bahareh Tasdighi, Nicklas Werge, Yi-Shan Wu, Melih Kandemir,
- Abstract要約: ObjectRLは、ディープラーニング学習(RL)のためのオープンソースのPythonである。
最小限のプログラミング労力で研究指向のプロトタイピングのために設計されている。
ドキュメンテーションとソースコードはhttps://objectrl.readthedocs.ioとhttps://github.com/adinlab/objectrlで入手できる。
- 参考スコア(独自算出の注目度): 12.1253700876226
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: ObjectRL is an open-source Python codebase for deep reinforcement learning (RL), designed for research-oriented prototyping with minimal programming effort. Unlike existing codebases, ObjectRL is built on Object-Oriented Programming (OOP) principles, providing a clear structure that simplifies the implementation, modification, and evaluation of new algorithms. ObjectRL lowers the entry barrier for deep RL research by organizing best practices into explicit, clearly separated components, making them easier to understand and adapt. Each algorithmic component is a class with attributes that describe key RL concepts and methods that intuitively reflect their interactions. The class hierarchy closely follows common ontological relationships, enabling data encapsulation, inheritance, and polymorphism, which are core features of OOP. We demonstrate the efficiency of ObjectRL's design through representative use cases that highlight its flexibility and suitability for rapid prototyping. The documentation and source code are available at https://objectrl.readthedocs.io and https://github.com/adinlab/objectrl .
- Abstract(参考訳): ObjectRLは、最小限のプログラミング労力で研究指向のプロトタイピングのために設計された、深層強化学習(RL)のためのオープンソースのPythonコードベースである。
既存のコードベースとは異なり、ObjectRLはオブジェクト指向プログラミング(OOP)の原則に基づいて構築されており、新しいアルゴリズムの実装、修正、評価を単純化する明確な構造を提供します。
ObjectRLは、ベストプラクティスを明確に分離されたコンポーネントに整理することで、深いRL研究の参入障壁を低くし、理解しやすくする。
各アルゴリズムコンポーネントは、重要なRL概念とそれらの相互作用を直感的に反映するメソッドを記述する属性を持つクラスである。
クラス階層は、OOPの中核となるデータカプセル化、継承、多型を可能にする、共通の存在論的関係に密接に従っている。
本稿では,ObjectRLの設計の柔軟性と迅速なプロトタイピングに適していることを示す代表的なユースケースを通して,ObjectRLの設計の効率を実証する。
ドキュメントとソースコードはhttps://objectrl.readthedocs.ioとhttps://github.com/adinlab/objectrl で公開されている。
関連論文リスト
- Are We Done with Object-Centric Learning? [65.67948794110212]
オブジェクト中心学習(OCL)は、シーン内の他のオブジェクトやバックグラウンドキューから分離されたオブジェクトのみをエンコードする表現を学習しようとする。
最近のサンプル効率のセグメンテーションモデルでは、ピクセル空間内のオブジェクトを分離し、それらを独立に符号化することができる。
我々は,OCLのレンズを通した背景刺激によるOOD一般化の課題に対処する。
論文 参考訳(メタデータ) (2025-04-09T17:59:05Z) - How Can LLM Guide RL? A Value-Based Approach [68.55316627400683]
強化学習(Reinforcement Learning, RL)は、将来の行動方針をフィードバックで改善することにより、シーケンシャルな意思決定問題の事実上の標準的実践となった。
大規模言語モデル(LLM)の最近の発展は、言語理解と生成において印象的な能力を示したが、探索と自己改善能力に欠けていた。
我々はLINVITというアルゴリズムを開発し、LLMガイダンスを値ベースRLの正規化因子として組み込んで学習に必要なデータ量を大幅に削減する。
論文 参考訳(メタデータ) (2024-02-25T20:07:13Z) - Learning Dynamic Attribute-factored World Models for Efficient
Multi-object Reinforcement Learning [6.447052211404121]
多くの強化学習タスクでは、エージェントは異なるタイプの多くのオブジェクトと対話し、目に見えない組み合わせやオブジェクト数に一般化する必要がある。
最近の研究は、サンプル効率を改善するために、オブジェクト指向表現と階層的抽象化の利点を示している。
本稿では、動的属性FacTored RL(DAFT-RL)フレームワークを導入し、オブジェクト属性の係数化の利点を利用する。
論文 参考訳(メタデータ) (2023-07-18T12:41:28Z) - RLTF: Reinforcement Learning from Unit Test Feedback [17.35361167578498]
Reinforcement Learning from Unit Test Feedback(リンク)は、新しいオンラインRLフレームワークである。
提案手法は,訓練中にリアルタイムにデータを生成し,高精度なフィードバック信号を用いて高品質なコードを生成する。
論文 参考訳(メタデータ) (2023-07-10T05:18:18Z) - Object-Category Aware Reinforcement Learning [18.106722478831113]
我々は,OCARL(Object-Category Aware Reinforcement Learning)という新しいフレームワークを提案する。
OCARLは、知覚と推論の両方を容易にするためにオブジェクトのカテゴリ情報を使用する。
実験の結果,OCARLはOORL領域におけるサンプル効率と一般化の両方を改善することができることがわかった。
論文 参考訳(メタデータ) (2022-10-13T11:31:32Z) - Complex-Valued Autoencoders for Object Discovery [62.26260974933819]
本稿では,オブジェクト中心表現に対する分散アプローチとして,複合オートエンコーダを提案する。
このシンプルで効率的なアプローチは、単純なマルチオブジェクトデータセット上の等価な実数値オートエンコーダよりも、より良い再構成性能を実現することを示す。
また、2つのデータセット上のSlotAttentionモデルと競合しないオブジェクト発見性能を実現し、SlotAttentionが失敗する第3のデータセットでオブジェクトをアンタングルする。
論文 参考訳(メタデータ) (2022-04-05T09:25:28Z) - Contrastive Learning for Source Code with Structural and Functional
Properties [66.10710134948478]
本稿では,ソースコードの特徴に基づいて事前学習に焦点を当てた,新たな自己教師型モデルBOOSTを提案する。
私たちは、機能的に等価なコードを生成する自動化された構造誘導型コード変換アルゴリズムを採用しています。
私たちは、対照的な学習目標を通じて、機能的に等価なコードをより近く、異なるコードに近づける方法で、モデルをトレーニングします。
論文 参考訳(メタデータ) (2021-10-08T02:56:43Z) - Look-into-Object: Self-supervised Structure Modeling for Object
Recognition [71.68524003173219]
我々は,自己スーパービジョンを取り入れた「対象」(具体的かつ内在的に対象構造をモデル化する)を提案する。
認識バックボーンは、より堅牢な表現学習のために大幅に拡張可能であることを示す。
提案手法は汎用オブジェクト認識(ImageNet)や細粒度オブジェクト認識タスク(CUB, Cars, Aircraft)など,多数のベンチマークにおいて大きなパフォーマンス向上を実現している。
論文 参考訳(メタデータ) (2020-03-31T12:22:51Z) - Relevance-Guided Modeling of Object Dynamics for Reinforcement Learning [0.0951828574518325]
現在の深層強化学習(RL)アプローチでは、環境に関する最小限の事前知識が組み込まれている。
本稿では,最小限およびタスク固有のオブジェクト表現を迅速に決定するために,オブジェクトのダイナミクスと振る舞いを推論するフレームワークを提案する。
また、オブジェクト表現と標準RLと計画アルゴリズムを用いて、Atariゲームにおけるこのフレームワークの可能性を強調し、既存の深層RLアルゴリズムよりも劇的に高速に学習する。
論文 参考訳(メタデータ) (2020-03-03T08:18:49Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。