論文の概要: Outer-Learning Framework for Playing Multi-Player Trick-Taking Card Games: A Case Study in Skat
- arxiv url: http://arxiv.org/abs/2512.15435v1
- Date: Wed, 17 Dec 2025 13:27:44 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-12-18 17:06:27.006186
- Title: Outer-Learning Framework for Playing Multi-Player Trick-Taking Card Games: A Case Study in Skat
- Title(参考訳): マルチプレイヤートリックタイキングカードゲームのためのアウトラーニングフレームワーク:スケートを事例として
- Authors: Stefan Edelkamp,
- Abstract要約: SkatやBridgeのようなマルチプレイヤーカードゲームでは、ゲームの初期ステージは、洗練された中盤や終盤のプレイよりも、ゲームの成功に批判的になることが多い。
本稿では,人間ゲームのデータベースを数百万のAIゲームで拡張し,統計生成とマージによって予測精度を向上させる,一般的なブートストラップ外学習フレームワークを考案し,評価する。
我々は、コンパクト化されたテーブルに対処するための完璧な機能ハッシュ関数を実装し、自己学習中に新たに推論された知識を継続的に改善する自己改善カードゲームエンジンを生成する。
- 参考スコア(独自算出の注目度): 1.7006003864727406
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: In multi-player card games such as Skat or Bridge, the early stages of the game, such as bidding, game selection, and initial card selection, are often more critical to the success of the play than refined middle- and end-game play. At the current limits of computation, such early decision-making resorts to using statistical information derived from a large corpus of human expert games. In this paper, we derive and evaluate a general bootstrapping outer-learning framework that improves prediction accuracy by expanding the database of human games with millions of self-playing AI games to generate and merge statistics. We implement perfect feature hash functions to address compacted tables, producing a self-improving card game engine, where newly inferred knowledge is continuously improved during self-learning. The case study in Skat shows that the automated approach can be used to support various decisions in the game.
- Abstract(参考訳): SkatやBridgeのようなマルチプレイヤーカードゲームでは、入札、ゲーム選択、初期カード選択といったゲームの初期ステージは、洗練された中盤や終盤のプレイよりも、プレーの成功に不可欠であることが多い。
現在の計算の限界において、そのような早期意思決定は、人間の専門的なゲームの大規模なコーパスから派生した統計情報を使用する。
本稿では,人間ゲームのデータベースを数百万のAIゲームに拡張して,統計生成とマージによって予測精度を向上させる,一般的なブートストラップ外学習フレームワークを考案し,評価する。
我々は、コンパクト化されたテーブルに対処するための完璧な機能ハッシュ関数を実装し、自己学習中に新たに推論された知識を継続的に改善する自己改善カードゲームエンジンを生成する。
Skatのケーススタディでは、ゲーム内のさまざまな決定を支援するために、自動的なアプローチが利用可能であることが示されている。
関連論文リスト
- Optimizing Hearthstone Agents using an Evolutionary Algorithm [0.0]
本稿では,カードゲーム『Harthstone』をプレイするエージェントの開発に進化的アルゴリズム(EA)を用いることを提案する。
エージェントは競争力のある共進化的トレーニングアプローチによって自己学習を特徴とする。
提案されたアプローチによって開発されたエージェントの1つは、国際ヘースストーン人工知能(AI)コンペティションにおけるランナーアップ(6%)であった。
論文 参考訳(メタデータ) (2024-10-25T16:49:11Z) - Instruction-Driven Game Engine: A Poker Case Study [53.689520884467065]
IDGEプロジェクトは、大規模言語モデルで自由形式のゲーム記述を追従し、ゲームプレイプロセスを生成することにより、ゲーム開発を民主化することを目的としている。
我々は、複雑なシナリオへの露出を徐々に増大させるカリキュラム方式でIDGEを訓練する。
我々の最初の進歩はポーカーのIDGEの開発であり、これは幅広いポーカーの変種をサポートするだけでなく、自然言語入力を通じて高度に個別化された新しいポーカーゲームを可能にする。
論文 参考訳(メタデータ) (2024-10-17T11:16:27Z) - Instruction-Driven Game Engines on Large Language Models [59.280666591243154]
IDGEプロジェクトは、大規模な言語モデルが自由形式のゲームルールに従うことを可能にすることで、ゲーム開発を民主化することを目的としている。
我々は、複雑なシナリオに対するモデルの露出を徐々に増大させるカリキュラム方式でIDGEを訓練する。
私たちの最初の進歩は、汎用的なカードゲームであるPoker用のIDGEを開発することです。
論文 参考訳(メタデータ) (2024-03-30T08:02:16Z) - Closed Drafting as a Case Study for First-Principle Interpretability,
Memory, and Generalizability in Deep Reinforcement Learning [3.018656336329545]
本稿では,DQN(Deep Q-Network)モデルの解釈可能性,一般化性,メモリについて検討する。
我々は、最先端の演技を行う「寿司囲碁会」と呼ばれる、クローズドドラフトゲームの人気ファミリを使用している。
論文 参考訳(メタデータ) (2023-10-31T17:24:40Z) - Student of Games: A unified learning algorithm for both perfect and
imperfect information games [22.97853623156316]
Students of Gamesは、ガイド付き検索、自己学習、ゲーム理論推論を組み合わせたアルゴリズムである。
学生ゲームは,計算能力と近似能力が増大するにつれて,完全プレイに収束し,健全であることを示す。
学生はチェスと囲碁で強い成績を収め、無期限のテキサスホールディングスのポーカーで最強の公開エージェントを破り、スコットランドヤードで最先端のエージェントを倒した。
論文 参考訳(メタデータ) (2021-12-06T17:16:24Z) - On the Power of Refined Skat Selection [1.3706331473063877]
Skatは魅力的なカードゲームで、現代のAIシステムの本質的な課題の多くを示しています。
洗練されたskat評価機能に基づくハードエキスパートルールとスコアリング関数を提案する。
実験では、精巧なskat pingアルゴリズムがボットの演奏性能に与える影響を強調した。
論文 参考訳(メタデータ) (2021-04-07T08:54:58Z) - An Empirical Study on the Generalization Power of Neural Representations
Learned via Visual Guessing Games [79.23847247132345]
本研究は,視覚質問応答(VQA)のような新しいNLP下流タスクにおいて,後から実行を依頼されたとき,人工エージェントが推測ゲームでどの程度の利益を得ることができるかを検討する。
提案手法は,1) エージェントがうまく推理ゲームを模倣することを学習する教師あり学習シナリオ,2) エージェントが単独でプレイする新しい方法,すなわち,反復経験学習(SPIEL)によるセルフプレイ(Self-play)を提案する。
論文 参考訳(メタデータ) (2021-01-31T10:30:48Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。