論文の概要: On the Power of Refined Skat Selection
- arxiv url: http://arxiv.org/abs/2104.02997v1
- Date: Wed, 7 Apr 2021 08:54:58 GMT
- ステータス: 処理完了
- システム内更新日: 2021-04-08 12:54:58.174449
- Title: On the Power of Refined Skat Selection
- Title(参考訳): 洗練されたスカット選択の力について
- Authors: Stefan Edelkamp
- Abstract要約: Skatは魅力的なカードゲームで、現代のAIシステムの本質的な課題の多くを示しています。
洗練されたskat評価機能に基づくハードエキスパートルールとスコアリング関数を提案する。
実験では、精巧なskat pingアルゴリズムがボットの演奏性能に与える影響を強調した。
- 参考スコア(独自算出の注目度): 1.3706331473063877
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Skat is a fascinating combinatorial card game, show-casing many of the
intrinsic challenges for modern AI systems such as cooperative and adversarial
behaviors (among the players), randomness (in the deal), and partial knowledge
(due to hidden cards). Given the larger number of tricks and higher degree of
uncertainty, reinforcement learning is less effective compared to classical
board games like Chess and Go. As within the game of Bridge, in Skat we have a
bidding and trick-taking stage. Prior to the trick-taking and as part of the
bidding process, one phase in the game is to select two skat cards, whose
quality may influence subsequent playing performance drastically. This paper
looks into different skat selection strategies. Besides predicting the
probability of winning and other hand strength functions we propose hard
expert-rules and a scoring functions based on refined skat evaluation features.
Experiments emphasize the impact of the refined skat putting algorithm on the
playing performance of the bots, especially for AI bidding and AI game
selection.
- Abstract(参考訳): skatは魅力的なコンビネータカードゲームであり、協力的および敵対的な行動(プレイヤー)、ランダム性(取引における)、部分的知識(隠しカードによる)など、現代のaiシステムにとって本質的な課題の多くを浮き彫りにしている。
多くのトリックと高い不確実性を考えると、強化学習はチェスや囲碁のような古典的なボードゲームに比べて効果が低い。
Bridgeのゲームと同じように、Skatでは入札とトリックのステージがあります。
トリックテイクに先立ち、入札プロセスの一部として、ゲーム内の1つのフェーズは2枚のスキャットカードを選択することであり、その品質はその後の演奏パフォーマンスに大きな影響を与える可能性がある。
本稿では, 異なるスコート選択戦略を考察する。
勝利確率と他の手力関数の予測に加えて、洗練されたskat評価特徴に基づくハードエキスパートルールとスコアリング関数を提案する。
実験では、洗練されたskatのアルゴリズムがボットのパフォーマンス、特にAI入札とAIゲーム選択に与える影響を強調している。
関連論文リスト
- Reinforcement Learning for High-Level Strategic Control in Tower Defense Games [47.618236610219554]
戦略ゲームにおいて、ゲームデザインの最も重要な側面の1つは、プレイヤーにとっての挑戦の感覚を維持することである。
従来のスクリプティング手法と強化学習を組み合わせた自動手法を提案する。
その結果、強化学習のような学習アプローチとスクリプトAIを組み合わせることで、AIのみを使用するよりも高性能で堅牢なエージェントが生まれることが示された。
論文 参考訳(メタデータ) (2024-06-12T08:06:31Z) - DanZero+: Dominating the GuanDan Game through Reinforcement Learning [95.90682269990705]
我々は、GuanDanという、非常に複雑で人気のあるカードゲームのためのAIプログラムを開発した。
私たちはまず、DanZeroという名のAIプログラムをこのゲームのために提案しました。
AIの能力をさらに強化するために、政策に基づく強化学習アルゴリズムをGuanDanに適用する。
論文 参考訳(メタデータ) (2023-12-05T08:07:32Z) - Mastering Strategy Card Game (Legends of Code and Magic) via End-to-End
Policy and Optimistic Smooth Fictitious Play [11.480308614644041]
我々は、2段階の戦略カードゲーム「Regends of Code and Magic」を研究する。
マルチステージゲームにおける難題を解決するために,エンド・ツー・エンドのポリシーを提案する。
私たちのアプローチはCOG2022コンペティションの2連覇です。
論文 参考訳(メタデータ) (2023-03-07T17:55:28Z) - Evolving Evaluation Functions for Collectible Card Game AI [1.370633147306388]
本研究は,機能ベースゲーム評価機能の進化における2つの重要な側面について述べる。
ゲノム表現の選択とモデルをテストするために使用される相手の選択について検討した。
私たちは、戦略カードゲームAIコンペティションで使用されるプログラミングゲーム、Regends of Code and Magicで実験をエンコードしました。
論文 参考訳(メタデータ) (2021-05-03T18:39:06Z) - Generating Diverse and Competitive Play-Styles for Strategy Games [58.896302717975445]
ターン型戦略ゲーム(Tribes)のためのプログレッシブアンプランによるPortfolio Monte Carlo Tree Searchを提案する。
品質分散アルゴリズム(MAP-Elites)を使用して異なるプレイスタイルを実現し、競争レベルを維持しながらパラメータ化する方法を示します。
その結果,このアルゴリズムは,トレーニングに用いるレベルを超えて,幅広いゲームレベルにおいても,これらの目標を達成できることが示された。
論文 参考訳(メタデータ) (2021-04-17T20:33:24Z) - Knowledge-Based Paranoia Search in Trick-Taking [1.3706331473063877]
本稿では,カードゲームSkatのトリックテイク中に強制的な勝利を見つけるために,emphknowledge-based paraonoia search (KBPS)を提案する。
ゲームツリーの効率的な部分情報検索と知識表現と推論を組み合わせる。
論文 参考訳(メタデータ) (2021-04-07T09:12:45Z) - TotalBotWar: A New Pseudo Real-time Multi-action Game Challenge and
Competition for AI [62.997667081978825]
TotalBotWarは、ゲームAIのための新しい擬似リアルタイムマルチアクションチャレンジだ。
ゲームはTotalWarのゲームシリーズに基づいており、プレイヤーは敵のゲームに勝つために軍隊を管理する。
論文 参考訳(メタデータ) (2020-09-18T09:13:56Z) - Learning to Play Sequential Games versus Unknown Opponents [93.8672371143881]
学習者が最初にプレーするゲームと、選択した行動に反応する相手との連続的なゲームについて考察する。
対戦相手の対戦相手列と対戦する際,学習者に対して新しいアルゴリズムを提案する。
我々の結果には、相手の反応の正則性に依存するアルゴリズムの後悔の保証が含まれている。
論文 参考訳(メタデータ) (2020-07-10T09:33:05Z) - Efficient exploration of zero-sum stochastic games [83.28949556413717]
ゲームプレイを通じて,ゲームの記述を明示せず,託宣のみにアクセス可能な,重要で一般的なゲーム解決環境について検討する。
限られたデュレーション学習フェーズにおいて、アルゴリズムは両方のプレイヤーのアクションを制御し、ゲームを学習し、それをうまくプレイする方法を学習する。
私たちのモチベーションは、クエリされた戦略プロファイルの支払いを評価するのにコストがかかる状況において、利用可能性の低い戦略を迅速に学習することにあります。
論文 参考訳(メタデータ) (2020-02-24T20:30:38Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。