論文の概要: Aquarium: A Comprehensive Framework for Exploring Predator-Prey Dynamics
through Multi-Agent Reinforcement Learning Algorithms
- arxiv url: http://arxiv.org/abs/2401.07056v1
- Date: Sat, 13 Jan 2024 12:09:49 GMT
- ステータス: 処理完了
- システム内更新日: 2024-01-17 19:54:04.339649
- Title: Aquarium: A Comprehensive Framework for Exploring Predator-Prey Dynamics
through Multi-Agent Reinforcement Learning Algorithms
- Title(参考訳): Aquarium:マルチエージェント強化学習アルゴリズムによる捕食者・捕食者のダイナミクスを総合的に探索するフレームワーク
- Authors: Michael K\"olle, Yannick Erpelding, Fabian Ritz, Thomy Phan, Steffen
Illium and Claudia Linnhoff-Popien
- Abstract要約: 水族館は捕食者-捕食者間相互作用のための総合的なマルチエージェント強化学習環境である。
2次元のエッジラッピング面上での物理ベースのエージェントの動きを特徴とする。
エージェント環境相互作用(観察、行動、報酬)と環境設定(エージェント速度、捕食、捕食者飢餓など)は、完全にカスタマイズ可能である。
- 参考スコア(独自算出の注目度): 9.225703308176435
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Recent advances in Multi-Agent Reinforcement Learning have prompted the
modeling of intricate interactions between agents in simulated environments. In
particular, the predator-prey dynamics have captured substantial interest and
various simulations been tailored to unique requirements. To prevent further
time-intensive developments, we introduce Aquarium, a comprehensive Multi-Agent
Reinforcement Learning environment for predator-prey interaction, enabling the
study of emergent behavior. Aquarium is open source and offers a seamless
integration of the PettingZoo framework, allowing a quick start with proven
algorithm implementations. It features physics-based agent movement on a
two-dimensional, edge-wrapping plane. The agent-environment interaction
(observations, actions, rewards) and the environment settings (agent speed,
prey reproduction, predator starvation, and others) are fully customizable.
Besides a resource-efficient visualization, Aquarium supports to record video
files, providing a visual comprehension of agent behavior. To demonstrate the
environment's capabilities, we conduct preliminary studies which use PPO to
train multiple prey agents to evade a predator. In accordance to the
literature, we find Individual Learning to result in worse performance than
Parameter Sharing, which significantly improves coordination and
sample-efficiency.
- Abstract(参考訳): マルチエージェント強化学習の最近の進歩は、シミュレーション環境におけるエージェント間の複雑な相互作用のモデル化を促している。
特に捕食者-捕食者の動力学はかなりの関心を集めており、様々なシミュレーションはユニークな要求に合わせたものである。
捕食者-捕食者間相互作用のための総合的マルチエージェント強化学習環境であるアクアリウムを導入し,創発的行動の研究を可能にする。
aquariumはオープンソースであり、pettingzooフレームワークのシームレスな統合を提供する。
2次元のエッジラッピング平面上での物理ベースのエージェント移動を特徴とする。
エージェントと環境の相互作用(観察、行動、報酬)と環境設定(エージェントの速度、獲物の繁殖、捕食者の飢餓など)は完全にカスタマイズ可能である。
リソース効率の可視化に加えて、Aquariumはビデオファイルの記録をサポートし、エージェントの振る舞いの視覚的理解を提供する。
本研究は,PPOを用いて捕食者を避けるために,複数の捕食者を訓練する予備的研究を行う。
文献に従えば,個々の学習はパラメータ共有よりもパフォーマンスが悪く,コーディネーションとサンプル効率が著しく向上することがわかった。
関連論文リスト
- DARLEI: Deep Accelerated Reinforcement Learning with Evolutionary
Intelligence [77.78795329701367]
本稿では,進化アルゴリズムと並列化強化学習を組み合わせたフレームワークであるDARLEIを提案する。
我々はDARLEIの性能を様々な条件で特徴付け、進化形態の多様性に影響を与える要因を明らかにした。
今後DARLEIを拡張して、よりリッチな環境における多様な形態素間の相互作用を取り入れていきたいと考えています。
論文 参考訳(メタデータ) (2023-12-08T16:51:10Z) - Octopus: Embodied Vision-Language Programmer from Environmental Feedback [58.04529328728999]
身体視覚言語モデル(VLM)は多モード認識と推論において大きな進歩を遂げた。
このギャップを埋めるために、我々は、計画と操作を接続する媒体として実行可能なコード生成を使用する、具体化された視覚言語プログラマであるOctopusを紹介した。
Octopusは、1)エージェントの視覚的およびテキスト的タスクの目的を正確に理解し、2)複雑なアクションシーケンスを定式化し、3)実行可能なコードを生成するように設計されている。
論文 参考訳(メタデータ) (2023-10-12T17:59:58Z) - Latent Exploration for Reinforcement Learning [87.42776741119653]
強化学習では、エージェントは環境を探索し、相互作用することでポリシーを学ぶ。
LATent TIme-Correlated Exploration (Lattice)を提案する。
論文 参考訳(メタデータ) (2023-05-31T17:40:43Z) - Predictive Experience Replay for Continual Visual Control and
Forecasting [62.06183102362871]
視覚力学モデリングのための新しい連続学習手法を提案し,その視覚制御と予測における有効性について検討する。
まず,タスク固有のダイナミクスをガウスの混合で学習する混合世界モデルを提案し,その上で,破滅的な忘れを克服するための新たなトレーニング戦略を提案する。
我々のモデルは,DeepMind Control と Meta-World のベンチマークにおいて,既存の連続的学習アルゴリズムと視覚的RLアルゴリズムの単純な組み合わせよりも優れている。
論文 参考訳(メタデータ) (2023-03-12T05:08:03Z) - DIAMBRA Arena: a New Reinforcement Learning Platform for Research and
Experimentation [91.3755431537592]
本研究は、強化学習研究と実験のための新しいプラットフォームであるDIAMBRA Arenaを提示する。
高品質な環境のコレクションが,OpenAI Gym標準に完全に準拠したPython APIを公開している。
これらは、離散的なアクションと観測を生のピクセルと追加の数値で構成したエピソディックなタスクである。
論文 参考訳(メタデータ) (2022-10-19T14:39:10Z) - Efficient Distributed Framework for Collaborative Multi-Agent
Reinforcement Learning [17.57163419315147]
不完全な情報環境に対するマルチエージェント強化学習は研究者から広く注目を集めている。
不安定なモデルイテレーションや訓練効率の低下など、マルチエージェント強化学習には依然としていくつかの問題がある。
本稿では,アクター-ワーク-ラーナーアーキテクチャに基づく分散MARLフレームワークを設計する。
論文 参考訳(メタデータ) (2022-05-11T03:12:49Z) - Stochastic Coherence Over Attention Trajectory For Continuous Learning
In Video Streams [64.82800502603138]
本稿では,映像ストリーム中のピクセルワイズ表現を段階的かつ自律的に開発するための,ニューラルネットワークに基づく新しいアプローチを提案する。
提案手法は, 参加者の入場地を観察することで, エージェントが学習できる, 人間の様の注意機構に基づく。
実験では,3次元仮想環境を利用して,映像ストリームを観察することで,エージェントが物体の識別を学べることを示す。
論文 参考訳(メタデータ) (2022-04-26T09:52:31Z) - CLOUD: Contrastive Learning of Unsupervised Dynamics [19.091886595825947]
コントラスト推定により、完全に教師のない方法で前方・逆ダイナミクスを学習することを提案する。
目標指向計画や観察からの模倣など,さまざまなタスクにまたがるアプローチの有効性を実証する。
論文 参考訳(メタデータ) (2020-10-23T15:42:57Z) - Ubiquitous Distributed Deep Reinforcement Learning at the Edge:
Analyzing Byzantine Agents in Discrete Action Spaces [0.06554326244334865]
本稿では,ビザンチンや誤作動剤の存在下で発生する多エージェント分散深層強化学習の課題について論じる。
個別行動の誤りが協調学習活動にどのように影響するかを示す。
分散マルチエージェントトレーニングにおけるアクター・クリティカル(A2C)を活かしたAtariテストベッドを用いたシミュレーション環境で実験を行った。
論文 参考訳(メタデータ) (2020-08-18T11:25:39Z) - CARL: Controllable Agent with Reinforcement Learning for Quadruped
Locomotion [0.0]
CARLは、高レベルの指示で制御でき、動的環境に自然に反応できる4重結合剤である。
我々は、ジェネレーティブ・アドリラル・ネットワークを使用して、速度や方向などのハイレベルな制御を、オリジナルのアニメーションに対応するアクション・ディストリビューションに適応させる。
深部強化学習によるさらなる微調整により、エージェントは、スムーズな遷移を発生させながら、目に見えない外部摂動から回復することができる。
論文 参考訳(メタデータ) (2020-05-07T07:18:57Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。