論文の概要: Multi-agent Reinforcement Learning in OpenSpiel: A Reproduction Report
- arxiv url: http://arxiv.org/abs/2103.00187v2
- Date: Tue, 2 Mar 2021 03:41:22 GMT
- ステータス: 処理完了
- システム内更新日: 2021-03-05 02:01:51.760475
- Title: Multi-agent Reinforcement Learning in OpenSpiel: A Reproduction Report
- Title(参考訳): openspielにおけるマルチエージェント強化学習 : 再現報告
- Authors: Michael Walton, Viliam Lisy
- Abstract要約: ゲーム学習のためのOpenSpielフレームワークで実装されたコアアルゴリズムの再現結果を提案する。
この研究の主な貢献は、OpenSpielが再実装した検索と強化学習アルゴリズムの検証である。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: In this report, we present results reproductions for several core algorithms
implemented in the OpenSpiel framework for learning in games. The primary
contribution of this work is a validation of OpenSpiel's re-implemented search
and Reinforcement Learning algorithms against the results reported in their
respective originating works. Additionally, we provide complete documentation
of hyperparameters and source code required to reproduce these experiments
easily and exactly.
- Abstract(参考訳): 本稿では,ゲーム学習のためのOpenSpielフレームワークで実装されたコアアルゴリズムの再現について述べる。
この研究の主な貢献は、OpenSpielの再実装された検索および強化学習アルゴリズムが、それぞれの原作で報告された結果に対する検証である。
さらに、これらの実験を再現するのに必要なハイパーパラメータとソースコードの完全なドキュメントも提供しています。
関連論文リスト
- OpenR: An Open Source Framework for Advanced Reasoning with Large Language Models [61.14336781917986]
大規模言語モデル(LLM)の推論能力を高めるためのオープンソースのフレームワークであるOpenRを紹介する。
OpenRは、データ取得、強化学習トレーニング、非自己回帰デコーディングを凝集性ソフトウェアプラットフォームに統合する。
私たちの研究は、OpenAIのo1モデルのコア技術と強化学習を探求する、オープンソースのフレームワークを初めて提供するものです。
論文 参考訳(メタデータ) (2024-10-12T23:42:16Z) - Accelerate Multi-Agent Reinforcement Learning in Zero-Sum Games with
Subgame Curriculum Learning [65.36326734799587]
ゼロサムゲームのための新しいサブゲームカリキュラム学習フレームワークを提案する。
エージェントを以前に訪れた状態にリセットすることで、適応的な初期状態分布を採用する。
我々は,2乗距離をNE値に近似するサブゲーム選択指標を導出する。
論文 参考訳(メタデータ) (2023-10-07T13:09:37Z) - Technical Challenges of Deploying Reinforcement Learning Agents for Game
Testing in AAA Games [58.720142291102135]
本稿では,既存の自動ゲームテストソリューションに,スクリプト型ボットをベースとして,実験的な強化学習システムを追加する取り組みについて述べる。
ゲーム制作において強化学習を活用するためのユースケースを示し、ゲームのために同じ旅をしたいと思う人なら誰でも遭遇する最大の時間をカバーしています。
我々は、機械学習、特にゲーム生産において効果的なツールである強化学習を作るのに価値があり、必要であると考えるいくつかの研究指針を提案する。
論文 参考訳(メタデータ) (2023-07-19T18:19:23Z) - SPRING: Studying the Paper and Reasoning to Play Games [102.5587155284795]
我々は,ゲーム本来の学術論文を読み取るための新しいアプローチ,SPRINGを提案し,大言語モデル(LLM)を通してゲームの説明とプレイの知識を利用する。
実験では,クラフトオープンワールド環境の設定下で,異なる形態のプロンプトによって引き起こされる文脈内「推論」の品質について検討した。
我々の実験は、LLMが一貫したチェーン・オブ・シークレットによって誘導されると、洗練された高レベル軌道の完成に大きな可能性があることを示唆している。
論文 参考訳(メタデータ) (2023-05-24T18:14:35Z) - Retrieval Augmentation for Commonsense Reasoning: A Unified Approach [64.63071051375289]
検索強化コモンセンス推論(RACo)の統一的枠組みを提案する。
提案するRACoは,他の知識強化手法よりも優れる。
論文 参考訳(メタデータ) (2022-10-23T23:49:08Z) - A Unified Approach to Reinforcement Learning, Quantal Response
Equilibria, and Two-Player Zero-Sum Games [104.3339905200105]
この研究は、ミラー降下と非ユークリッド近位勾配アルゴリズムにインスパイアされた、磁気ミラー降下と呼ばれるアルゴリズムを研究する。
我々の貢献は、2人のプレイヤーゼロサムゲームにおける平衡解法および強化学習へのアプローチとしての磁気ミラー降下の利点を実証することである。
論文 参考訳(メタデータ) (2022-06-12T19:49:14Z) - Deep Apprenticeship Learning for Playing Games [0.0]
複雑な多次元タスクのエキスパート行動に基づく学習モデルの設計の可能性について検討する。
本稿では,強化学習における教師あり学習技術に関する従来の研究をもとに,新しい見習い学習手法を提案する。
本手法は,アタリゲームからの映像フレームに適用し,人工エージェントによるゲームプレイの指導を行う。
論文 参考訳(メタデータ) (2022-05-16T19:52:45Z) - Pearl: Parallel Evolutionary and Reinforcement Learning Library [24.833522849004265]
私たちはPearlを開発した。PearlはオープンソースのPythonライブラリで、最適化された強化学習、進化的計算、これら2つの組み合わせを実行するように設計されています。
モジュールと拡張可能なコンポーネント、評価されたモジュール設定、ボード統合、カスタムコールバック、包括的な視覚化。
論文 参考訳(メタデータ) (2022-01-24T10:22:30Z) - Final Adaptation Reinforcement Learning for N-Player Games [0.0]
本稿では,n-tuple-based reinforcement learning (RL)アルゴリズムについて述べる。
本稿では,TD-,SARSA-およびQ-ラーニングのための新しいアルゴリズムを提案する。
これらのアルゴリズムにFinal Adaptation RL(FARL)と呼ばれる新しい要素を追加します。
論文 参考訳(メタデータ) (2021-11-29T08:36:39Z) - Multi-Armed Bandits for Minesweeper: Profiting from
Exploration-Exploitation Synergy [0.0]
人気のコンピュータパズルであるマインズウィーパーのゲームでは、人間のプレイヤーは幸運と戦略の両方を混ぜて成功させる必要がある。
我々は,このゲームで提示される問題に対処するために,強化学習に基づく新しい方法論を開発する。
論文 参考訳(メタデータ) (2020-07-25T01:44:50Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。