論文の概要: Reinforcing Competitive Multi-Agents for Playing 'So Long Sucker'
- arxiv url: http://arxiv.org/abs/2411.11057v2
- Date: Tue, 14 Oct 2025 19:11:58 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-16 17:53:16.206974
- Title: Reinforcing Competitive Multi-Agents for Playing 'So Long Sucker'
- Title(参考訳): ソロングサッカー」演奏のための競争力のあるマルチエージェントの強化
- Authors: Medant Sharan, Chandranath Adak,
- Abstract要約: 本稿では,マルチエージェント強化学習(MARL)の新たなベンチマークとして,戦略ゲームSo Long Sucker(SLS)について検討する。
グラフィカルなユーザインタフェースと強化学習アルゴリズムのベンチマークサポートを備えた,SLS用の初の公開計算フレームワークを紹介した。
- 参考スコア(独自算出の注目度): 0.12234742322758417
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: This paper investigates the strategy game So Long Sucker (SLS) as a novel benchmark for multi-agent reinforcement learning (MARL). Unlike traditional board or video game testbeds, SLS is distinguished by its coalition formation, strategic deception, and dynamic elimination rules, making it a uniquely challenging environment for autonomous agents. We introduce the first publicly available computational framework for SLS, complete with a graphical user interface and benchmarking support for reinforcement learning algorithms. Using classical deep reinforcement learning methods (e.g., DQN, DDQN, and Dueling DQN), we train self-playing agents to learn the rules and basic strategies of SLS. Experimental results demonstrate that, although these agents achieve roughly half of the maximum attainable reward and consistently outperform random baselines, they require long training horizons (~2000 games) and still commit occasional illegal moves, highlighting both the promise and limitations of classical reinforcement learning. Our findings establish SLS as a negotiation-aware benchmark for MARL, opening avenues for future research that integrates game-theoretic reasoning, coalition-aware strategies, and advanced reinforcement learning architectures to better capture the social and adversarial dynamics of complex multi-agent games.
- Abstract(参考訳): 本稿では,マルチエージェント強化学習(MARL)の新たなベンチマークとして,戦略ゲームSo Long Sucker(SLS)について検討する。
従来のボードやビデオゲームのテストベッドとは異なり、SLSは連帯の形成、戦略上の騙し、ダイナミックな排除ルールによって区別されており、自律エージェントにとってユニークな環境となっている。
グラフィカルなユーザインタフェースと強化学習アルゴリズムのベンチマークサポートを備えた,SLS用の初の公開計算フレームワークを紹介した。
従来の強化学習手法(例えば、DQN、DDQN、Dueling DQN)を用いて、SLSのルールと基本戦略を学ぶためのセルフプレイングエージェントを訓練する。
実験の結果、これらのエージェントは達成可能な最大報酬のおよそ半分を達成し、無作為なベースラインを一貫して上回りながら、長い訓練地平線(2000ゲーム)を必要とし、時折違法な動きをし、古典的な強化学習の約束と限界の両方を強調していることがわかった。
本研究は,ゲーム理論的推論,連立学習戦略,高度な強化学習アーキテクチャを統合し,複雑なマルチエージェントゲームの社会的・敵対的ダイナミクスをよりよく捉えるための今後の研究への道を開くための,MARLの交渉対応ベンチマークとしてSLSを確立した。
関連論文リスト
- GIFT: Games as Informal Training for Generalizable LLMs [64.47890325824763]
大規模言語モデル(LLM)は「実践的な知恵」と一般化可能な知性に苦しむ。
このギャップは、目標指向の指示よりもインタラクティブなフィードバックに長けている非公式な学習の欠如から生じる。
LLMの非公式学習におけるゲーム処理環境として,本質的な報酬信号と抽象化された複雑性を活用することを提案する。
論文 参考訳(メタデータ) (2026-01-09T08:42:44Z) - MARS: Reinforcing Multi-Agent Reasoning of LLMs through Self-Play in Strategic Games [30.876486250077956]
我々は、協調ゲームと競争ゲームの両方において、セルフプレイを通じてLLMのマルチエージェント推論を動機付けるエンドツーエンドのRLフレームワークであるMARSを紹介する。
LLMにおける汎用マルチエージェント推論機能を開発するための強力なアプローチとして,戦略ゲームにおけるセルフプレイによるエンドツーエンドのRLトレーニングを確立した。
論文 参考訳(メタデータ) (2025-10-17T08:08:06Z) - PillagerBench: Benchmarking LLM-Based Agents in Competitive Minecraft Team Environments [48.892997022500765]
PillagerBenchは、Minecraftのリアルタイムの競合チーム-vs-チームシナリオでマルチエージェントシステムを評価するフレームワークである。
また,LLMベースのマルチエージェントシステムであるTactiCrafterを提案する。
評価の結果、TactiCrafterはベースラインのアプローチよりも優れており、自己学習による適応学習を誇示している。
論文 参考訳(メタデータ) (2025-09-07T22:51:12Z) - Society of Mind Meets Real-Time Strategy: A Hierarchical Multi-Agent Framework for Strategic Reasoning [16.35236123729838]
我々は,Strategic Planner (SP) と呼ばれるメタコントローラの下で,特殊模倣学習エージェントを利用する階層型マルチエージェントフレームワークを提案する。
専門家によるデモンストレーションによって、各特殊エージェントは、航空支援や防御演習のような独特の戦略を学び、一貫性のある、構造化された多段階のアクションシーケンスを生成する。
SPはこれらの提案を1つの環境適応プランに編成し、局所的な決定が長期的な戦略と整合することを保証する。
論文 参考訳(メタデータ) (2025-08-08T05:57:12Z) - Who is a Better Player: LLM against LLM [53.46608216197315]
本稿では,大規模言語モデル (LLM) の総合的な性能を評価するための対戦型ベンチマークフレームワークを提案する。
広範にプレイされている5つのゲームをサポートし,20のLDMを駆使したプレーヤーを対象とする,特別な評価プラットフォームであるQi Townを紹介した。
論文 参考訳(メタデータ) (2025-08-05T06:41:47Z) - Agents of Change: Self-Evolving LLM Agents for Strategic Planning [28.172006841163938]
HexMachinaは、環境発見と戦略改善を分離する継続的学習マルチエージェントシステムである。
制御されたカタナトロン実験では、HexMachinaはスクラッチから学び、最強の人造ベースラインを上回るプレイヤーを進化させる。
論文 参考訳(メタデータ) (2025-06-05T05:45:24Z) - Strategist: Self-improvement of LLM Decision Making via Bi-Level Tree Search [32.657454056329875]
大規模言語モデル(LLM)は、強力な一般化とゼロショット能力を示すが、詳細な計画と意思決定を必要とするタスクに苦労する。
両手法の長所を統合する新しいアプローチであるSTRATEGISTを紹介する。
本研究では,部分情報を持つ競合型マルチターンゲームのための最適戦略学習におけるSTRATEGISTの有効性を実証する。
論文 参考訳(メタデータ) (2024-08-20T08:22:04Z) - FightLadder: A Benchmark for Competitive Multi-Agent Reinforcement Learning [25.857375787748715]
我々は、リアルタイムの格闘ゲームプラットフォームであるFightLadderを紹介し、競争力のあるMARL研究を促進する。
競争ゲームのための最先端のMARLアルゴリズムの実装と評価指標のセットを提供する。
シングルプレイヤーモードで12文字を連続的に打ち破る汎用エージェントを訓練することにより,このプラットフォームの実現可能性を示す。
論文 参考訳(メタデータ) (2024-06-04T08:04:23Z) - K-Level Reasoning: Establishing Higher Order Beliefs in Large Language Models for Strategic Reasoning [76.3114831562989]
マルチエージェント環境で戦略を動的に適応させるためには、LLM(Large Language Model)エージェントが必要である。
我々は,「K-Level Reasoning with Large Language Models (K-R)」という新しいフレームワークを提案する。
論文 参考訳(メタデータ) (2024-02-02T16:07:05Z) - Two-Step Reinforcement Learning for Multistage Strategy Card Game [0.0]
本研究では,「指輪のロード:カードゲーム(LOTRCG)」に適した2段階強化学習(RL)戦略を紹介する。
本研究は,段階学習アプローチを採用することにより,従来のRL手法から分岐する。
また,異なるRLエージェントがゲームにおける様々な意思決定に使用されるマルチエージェントシステムについても検討した。
論文 参考訳(メタデータ) (2023-11-29T01:31:21Z) - Leveraging Reward Consistency for Interpretable Feature Discovery in
Reinforcement Learning [69.19840497497503]
一般的に使われているアクションマッチングの原理は、RLエージェントの解釈よりもディープニューラルネットワーク(DNN)の説明に近いと論じられている。
本稿では,RLエージェントの主目的である報酬を,RLエージェントを解釈する本質的な目的として考察する。
我々は,Atari 2600 ゲームと,挑戦的な自動運転車シミュレータ環境である Duckietown の検証と評価を行った。
論文 参考訳(メタデータ) (2023-09-04T09:09:54Z) - Benchmarking Robustness and Generalization in Multi-Agent Systems: A
Case Study on Neural MMO [50.58083807719749]
IJCAI 2022で開催されている第2回Neural MMOチャレンジの結果を報告する。
この競合はマルチエージェントシステムの堅牢性と一般化をターゲットにしている。
環境ラッパー、ベースライン、可視化ツール、そしてさらなる研究のための選択されたポリシーを含むベンチマークをオープンソースにします。
論文 参考訳(メタデータ) (2023-08-30T07:16:11Z) - Mastering the Game of No-Press Diplomacy via Human-Regularized
Reinforcement Learning and Planning [95.78031053296513]
ノープレス外交(No-press Diplomacy)は、協力と競争の両方を含む複雑な戦略ゲームである。
我々は、人間の模倣学習ポリシーに対する報酬最大化ポリシーを規則化する、DiL-piKLと呼ばれる計画アルゴリズムを導入する。
RL-DiL-piKLと呼ばれる自己再生強化学習アルゴリズムに拡張可能であることを示す。
論文 参考訳(メタデータ) (2022-10-11T14:47:35Z) - Explore and Control with Adversarial Surprise [78.41972292110967]
強化学習(Reinforcement Learning, RL)は、目標指向のポリシーを学習するためのフレームワークである。
本稿では,RLエージェントが経験した驚きの量と競合する2つのポリシーを相殺する対戦ゲームに基づく,新しい教師なしRL手法を提案する。
本手法は, 明確な相転移を示すことによって, 複雑なスキルの出現につながることを示す。
論文 参考訳(メタデータ) (2021-07-12T17:58:40Z) - Learning Monopoly Gameplay: A Hybrid Model-Free Deep Reinforcement
Learning and Imitation Learning Approach [31.066718635447746]
強化学習(RL)は、環境と相互作用するエージェントに依存し、それによって受け取った報酬の累積合計を最大化します。
マルチプレイヤーのモノポリーゲームでは、プレイヤーは取引など複雑なアクションを含む毎ターンに複数の決定をしなければならない。
本稿では,モノポリーの勝利戦略を再生および学習できるハイブリッドモデルフリーディープRL(DRL)アプローチについて紹介する。
論文 参考訳(メタデータ) (2021-03-01T01:40:02Z) - DeepCrawl: Deep Reinforcement Learning for Turn-based Strategy Games [137.86426963572214]
Deep CrawlはiOSとAndroid用の完全にプレイ可能なRogueライクなプロトタイプで、すべてのエージェントがDeep Reinforcement Learning (DRL)を使用してトレーニングされたポリシーネットワークによって制御される。
本研究の目的は、近年のDRLの進歩が、ビデオゲームにおける非プレイヤーキャラクターに対する説得力のある行動モデルの開発に有効であるかどうかを理解することである。
論文 参考訳(メタデータ) (2020-12-03T13:53:29Z) - SUNRISE: A Simple Unified Framework for Ensemble Learning in Deep
Reinforcement Learning [102.78958681141577]
SUNRISEは単純な統一アンサンブル法であり、様々な非政治的な深層強化学習アルゴリズムと互換性がある。
SUNRISEは, (a) アンサンブルに基づく重み付きベルマンバックアップと, (b) 最上位の自信境界を用いて行動を選択する推論手法を統合し, 効率的な探索を行う。
論文 参考訳(メタデータ) (2020-07-09T17:08:44Z) - The NetHack Learning Environment [79.06395964379107]
本稿では、強化学習研究のための手続き的に生成されたローグのような環境であるNetHack Learning Environment(NLE)を紹介する。
我々は,NetHackが,探索,計画,技術習得,言語条件付きRLといった問題に対する長期的な研究を促進するのに十分複雑であると主張している。
我々は,分散されたDeep RLベースラインとランダムネットワーク蒸留探索を用いて,ゲームの初期段階における実験的な成功を示す。
論文 参考訳(メタデータ) (2020-06-24T14:12:56Z) - Distributed Reinforcement Learning for Cooperative Multi-Robot Object
Manipulation [53.262360083572005]
強化学習(RL)を用いた協調型マルチロボットオブジェクト操作タスクの検討
分散近似RL(DA-RL)とゲーム理論RL(GT-RL)の2つの分散マルチエージェントRLアプローチを提案する。
本稿では, DA-RL と GT-RL を多エージェントシステムに適用し, 大規模システムへの拡張が期待される。
論文 参考訳(メタデータ) (2020-03-21T00:43:54Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。