論文の概要: PDDLGym: Gym Environments from PDDL Problems
- arxiv url: http://arxiv.org/abs/2002.06432v2
- Date: Tue, 15 Sep 2020 23:33:35 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-31 23:10:58.754356
- Title: PDDLGym: Gym Environments from PDDL Problems
- Title(参考訳): PDDLGym:PDDL問題からのガイム環境
- Authors: Tom Silver and Rohan Chitnis
- Abstract要約: PDDLGymはPDDLドメインと問題からOpenAI Gym環境を自動的に構築するフレームワークである。
PDDLGymの観察と行動はリレーショナルであり、リレーショナル強化学習とリレーショナルシーケンシャル意思決定の研究に特に適している。
- 参考スコア(独自算出の注目度): 13.630185187102413
- License: http://creativecommons.org/publicdomain/zero/1.0/
- Abstract: We present PDDLGym, a framework that automatically constructs OpenAI Gym
environments from PDDL domains and problems. Observations and actions in
PDDLGym are relational, making the framework particularly well-suited for
research in relational reinforcement learning and relational sequential
decision-making. PDDLGym is also useful as a generic framework for rapidly
building numerous, diverse benchmarks from a concise and familiar specification
language. We discuss design decisions and implementation details, and also
illustrate empirical variations between the 20 built-in environments in terms
of planning and model-learning difficulty. We hope that PDDLGym will facilitate
bridge-building between the reinforcement learning community (from which Gym
emerged) and the AI planning community (which produced PDDL). We look forward
to gathering feedback from all those interested and expanding the set of
available environments and features accordingly. Code:
https://github.com/tomsilver/pddlgym
- Abstract(参考訳): PDDLGymはPDDLドメインと問題からOpenAI Gym環境を自動的に構築するフレームワークである。
pddlgymの観察と行動はリレーショナルであり、このフレームワークはリレーショナル強化学習とリレーショナルシーケンシャルな意思決定の研究に特に適している。
PDDLGymは簡潔で使い慣れた仕様言語から様々なベンチマークを迅速に構築するための汎用フレームワークとしても有用である。
設計決定と実装の詳細を議論し,計画とモデル学習の難易度の観点から20の組込み環境間の経験的変動を例示する。
我々は、PDDLGymが強化学習コミュニティ(Gymが誕生した)とAI計画コミュニティ(PDDLを作成した)の間の橋渡しを促進することを期待している。
興味のある人たちからフィードバックを集め、それに応じて利用可能な環境と機能セットを拡大することを楽しみにしています。
コード: https://github.com/tomsilver/pddlgym
関連論文リスト
- Efficient Adaptation in Mixed-Motive Environments via Hierarchical Opponent Modeling and Planning [51.52387511006586]
本稿では,HOP(Hierarchical Opponent Modeling and Planning)を提案する。
HOPは階層的に2つのモジュールから構成される: 相手の目標を推論し、対応する目標条件のポリシーを学ぶ、反対モデリングモジュール。
HOPは、さまざまな未確認エージェントと相互作用する際、優れた少数ショット適応能力を示し、セルフプレイのシナリオで優れている。
論文 参考訳(メタデータ) (2024-06-12T08:48:06Z) - Generalized Planning for the Abstraction and Reasoning Corpus [10.377424252002795]
GPAR(Generalized Planning for Abstract Reasoning)を提案する。
ARC問題を一般化計画(GP)問題とみなし、解はポインタを持つ計画プログラムとして形式化される。
本稿では,行動モデル,述語,議論,計画プログラムの有効な構造に対する制約という形で,ARC特有のドメイン知識を用いてGPソルバをスケールアップする方法を示す。
論文 参考訳(メタデータ) (2024-01-15T02:25:00Z) - Pangu-Agent: A Fine-Tunable Generalist Agent with Structured Reasoning [50.47568731994238]
人工知能(AI)エージェント作成の鍵となる方法は強化学習(RL)である
本稿では,構造化推論をAIエージェントのポリシーに統合し,学習するための一般的なフレームワークモデルを提案する。
論文 参考訳(メタデータ) (2023-12-22T17:57:57Z) - SDGym: Low-Code Reinforcement Learning Environments using System Dynamics Models [0.0]
SDGymはOpenAI Gymフレームワーク上に構築されたローコードライブラリで、カスタムRL環境の生成を可能にする。
本稿では,電気自動車導入問題のSDモデルを用いて,SDGym環境の性能を実証する。
SDGymをオープンソース化することで、さらなる研究を活性化し、SDおよびRLコミュニティ全体での採用を促進することを目指している。
論文 参考訳(メタデータ) (2023-10-19T05:56:25Z) - Serving Deep Learning Model in Relational Databases [70.53282490832189]
リレーショナルデータ上での深層学習(DL)モデルの実現は、様々な商業分野や科学分野において重要な要件となっている。
最先端のDL中心アーキテクチャは、DL計算を専用のDLフレームワークにオフロードします。
UDF中心アーキテクチャの可能性は、リレーショナルデータベース管理システム(RDBMS)内の1つ以上のテンソル計算をユーザ定義関数(UDF)にカプセル化する。
論文 参考訳(メタデータ) (2023-10-07T06:01:35Z) - PDSketch: Integrated Planning Domain Programming and Learning [86.07442931141637]
我々は PDSketch という新しいドメイン定義言語を提案する。
これにより、ユーザーはトランジションモデルで柔軟にハイレベルな構造を定義できる。
移行モデルの詳細は、トレーニング可能なニューラルネットワークによって満たされる。
論文 参考訳(メタデータ) (2023-03-09T18:54:12Z) - pyRDDLGym: From RDDL to Gym Environments [22.439740618373346]
pyRDDLGymは、RDDLの宣言的記述からOpenAI Gym環境の自動生成のためのPythonフレームワークである。
本稿では、pyRDDLGymの設計と組込み例と、フレームワークに組み込まれたRDDL言語への追加について述べる。
論文 参考訳(メタデータ) (2022-11-11T00:58:16Z) - POGEMA: Partially Observable Grid Environment for Multiple Agents [64.88759709443819]
POGEMAは、部分的に観測可能なマルチエージェントパスフィンディング(PO-MAPF)問題に挑戦するためのサンドボックスである。
様々なPO-MAPFに合わせることができ、プランニングと学習のための優れた試験場として機能する。
論文 参考訳(メタデータ) (2022-06-22T09:39:50Z) - The AI Arena: A Framework for Distributed Multi-Agent Reinforcement
Learning [0.3437656066916039]
分散マルチエージェント強化学習のための柔軟な抽象化を備えたスケーラブルなフレームワークであるAI Arenaを紹介します。
複数の異なる学習環境において、一般的なRL技術よりも分散マルチエージェント学習アプローチによる性能向上を示す。
論文 参考訳(メタデータ) (2021-03-09T22:16:19Z) - Plato Dialogue System: A Flexible Conversational AI Research Platform [64.82999992143448]
PlatoはPythonで書かれた柔軟な会話型AIプラットフォームで、あらゆる種類の対話型エージェントアーキテクチャをサポートする。
Platoは理解しやすく、デバッグしやすいように設計されており、各コンポーネントをトレーニングする基盤となる学習フレームワークに依存しない。
論文 参考訳(メタデータ) (2020-01-17T18:27:29Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。