論文の概要: A Novel Weighted Ensemble Learning Based Agent for the Werewolf Game
- arxiv url: http://arxiv.org/abs/2205.09813v1
- Date: Thu, 19 May 2022 19:19:29 GMT
- ステータス: 処理完了
- システム内更新日: 2022-06-06 02:53:28.512430
- Title: A Novel Weighted Ensemble Learning Based Agent for the Werewolf Game
- Title(参考訳): 人狼ゲームのための新しい重み付きアンサンブル学習エージェント
- Authors: Mohiuddeen Khan, Claus Aranha
- Abstract要約: ワイアウルフは世界中で人気のあるパーティーゲームであり、近年その重要性の研究が進んでいる。
本研究では,複雑な重み付きアンサンブル学習手法を用いて,Werewolfをプレイする洗練されたエージェントを作成した。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Werewolf is a popular party game throughout the world, and research on its
significance has progressed in recent years. The Werewolf game is based on
conversation, and in order to win, participants must use all of their cognitive
abilities. This communication game requires the playing agents to be very
sophisticated to win. In this research, we generated a sophisticated agent to
play the Werewolf game using a complex weighted ensemble learning approach.
This research work aimed to estimate what other agents/players think of us in
the game. The agent was developed by aggregating strategies of different
participants in the AI Wolf competition and thereby learning from them using
machine learning. Moreover, the agent created was able to perform much better
than other competitors using very basic strategies to show the approach's
effectiveness in the Werewolf game. The machine learning technique used here is
not restricted to the Werewolf game but may be extended to any game that
requires communication and action depending on other participants.
- Abstract(参考訳): ワイアウルフは世界中で人気のあるパーティーゲームであり、近年その重要性の研究が進んでいる。
人狼ゲームは会話に基づいており、勝つためには、参加者はすべての認知能力を使わなければならない。
このコミュニケーションゲームは、プレイヤーが勝つために非常に洗練されたエージェントを必要とする。
本研究では,複雑な重み付きアンサンブル学習手法を用いて,Werewolfをプレイする洗練されたエージェントを作成した。
この研究は、他のエージェントやプレイヤーがゲームで我々をどう考えているかを推定することを目的としている。
このエージェントは、AI Wolfコンペティションのさまざまな参加者の戦略を集約して開発され、機械学習を使ってそれらから学習する。
さらに、作成したエージェントは他の競合製品よりも性能が向上し、非常に基本的な戦略を用いて、人狼ゲームにおけるアプローチの有効性を示すことができた。
ここで使用される機械学習技術は、Werewolfゲームに限らず、他の参加者によるコミュニケーションとアクションを必要とするどんなゲームにも拡張することができる。
関連論文リスト
- Neural Population Learning beyond Symmetric Zero-sum Games [52.20454809055356]
我々はNuPL-JPSROという,スキルの伝達学習の恩恵を受けるニューラル集団学習アルゴリズムを導入し,ゲームの粗相関(CCE)に収束する。
本研究は, 均衡収束型集団学習を大規模かつ汎用的に実施可能であることを示す。
論文 参考訳(メタデータ) (2024-01-10T12:56:24Z) - ALYMPICS: LLM Agents Meet Game Theory -- Exploring Strategic
Decision-Making with AI Agents [77.34720446306419]
Alympicsは、ゲーム理論の研究にLarge Language Model (LLM)エージェントを利用する、体系的なシミュレーションフレームワークである。
Alympicsは、複雑なゲーム理論の問題を研究するための汎用的なプラットフォームを作成する。
論文 参考訳(メタデータ) (2023-11-06T16:03:46Z) - Language Agents with Reinforcement Learning for Strategic Play in the
Werewolf Game [40.438765131992525]
我々は、柔軟な言語行動を生成し、強力な意思決定能力を有する戦略的言語エージェントを開発する。
言語行動の本質的バイアスを軽減するため,我々のエージェントはLLMを用いて推論を行い,多様な行動候補を生成する。
実験により,我々のエージェントは本態性バイアスを克服し,Werewolfゲームにおいて既存のLSMベースのエージェントより優れていることが示された。
論文 参考訳(メタデータ) (2023-10-29T09:02:57Z) - Exploring Large Language Models for Communication Games: An Empirical Study on Werewolf [19.39740531672788]
通信ゲームにおいて,大規模言語モデルに係わるチューニング不要なフレームワークを提案する。
代表的で広く研究されているコミュニケーションゲームWerewolf'の実証的研究は、我々のフレームワークがLLMのパラメータを調整せずにWerewolfゲームを効果的にプレイできることを実証している。
論文 参考訳(メタデータ) (2023-09-09T01:56:40Z) - Playing the Werewolf game with artificial intelligence for language
understanding [0.7550566004119156]
ワイアウルフ(Werewolf)は、自由な自然言語通信に基づくソーシャル推論ゲームである。
本研究の目的は、自然言語会話を通じてWerewolfをプレイできるAIエージェントを開発することである。
論文 参考訳(メタデータ) (2023-02-21T13:03:20Z) - Mastering the Game of No-Press Diplomacy via Human-Regularized
Reinforcement Learning and Planning [95.78031053296513]
ノープレス外交(No-press Diplomacy)は、協力と競争の両方を含む複雑な戦略ゲームである。
我々は、人間の模倣学習ポリシーに対する報酬最大化ポリシーを規則化する、DiL-piKLと呼ばれる計画アルゴリズムを導入する。
RL-DiL-piKLと呼ばれる自己再生強化学習アルゴリズムに拡張可能であることを示す。
論文 参考訳(メタデータ) (2022-10-11T14:47:35Z) - Solving Royal Game of Ur Using Reinforcement Learning [0.0]
我々はモンテカルロ、クラーニング、サーサといった異なる手法を用いてエージェントを訓練し、戦略的なUrゲームを行うための最適なポリシーを学ぶ。
アルゴリズムによる限られたリソースで訓練された場合、全体的なパフォーマンスは向上するが、期待されるSarsaは、学習の高速化に関して有望な結果を示す。
論文 参考訳(メタデータ) (2022-08-23T01:26:37Z) - Learning Monopoly Gameplay: A Hybrid Model-Free Deep Reinforcement
Learning and Imitation Learning Approach [31.066718635447746]
強化学習(RL)は、環境と相互作用するエージェントに依存し、それによって受け取った報酬の累積合計を最大化します。
マルチプレイヤーのモノポリーゲームでは、プレイヤーは取引など複雑なアクションを含む毎ターンに複数の決定をしなければならない。
本稿では,モノポリーの勝利戦略を再生および学習できるハイブリッドモデルフリーディープRL(DRL)アプローチについて紹介する。
論文 参考訳(メタデータ) (2021-03-01T01:40:02Z) - Learning to Play Imperfect-Information Games by Imitating an Oracle
Planner [77.67437357688316]
我々は、同時移動と大規模なステートアクションスペースでマルチプレイヤーの不完全な情報ゲームをプレイする学習を検討します。
我々のアプローチはモデルに基づく計画に基づいている。
我々は,Clash Royale と Pommerman のゲームにおいて,プランナーが効率的なプレイ戦略を発見することができることを示す。
論文 参考訳(メタデータ) (2020-12-22T17:29:57Z) - Learning to Play Sequential Games versus Unknown Opponents [93.8672371143881]
学習者が最初にプレーするゲームと、選択した行動に反応する相手との連続的なゲームについて考察する。
対戦相手の対戦相手列と対戦する際,学習者に対して新しいアルゴリズムを提案する。
我々の結果には、相手の反応の正則性に依存するアルゴリズムの後悔の保証が含まれている。
論文 参考訳(メタデータ) (2020-07-10T09:33:05Z) - Learning from Learners: Adapting Reinforcement Learning Agents to be
Competitive in a Card Game [71.24825724518847]
本稿では,競争力のあるマルチプレイヤーカードゲームの現実的な実装を学習・プレイするために,一般的な強化学習アルゴリズムをどのように適用できるかについて検討する。
本研究は,学習エージェントに対して,エージェントが競争力を持つことの学習方法を評価するための特定のトレーニングと検証ルーチンを提案し,それらが相互の演奏スタイルにどのように適応するかを説明する。
論文 参考訳(メタデータ) (2020-04-08T14:11:05Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。