論文の概要: Strength Estimation and Human-Like Strength Adjustment in Games
- arxiv url: http://arxiv.org/abs/2502.17109v1
- Date: Mon, 24 Feb 2025 12:47:47 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-02-25 15:56:02.788424
- Title: Strength Estimation and Human-Like Strength Adjustment in Games
- Title(参考訳): ゲームにおける強度推定と人間ライクな強度調整
- Authors: Chun Jung Chen, Chung-Chin Shih, Ti-Rong Wu,
- Abstract要約: 本稿では, 強度推定器 (SE) とモンテカルロ木探索法 (SE-based Monte Carlo tree search) を含む新しい強度システムを提案する。
強度推定器は、人間の直接の相互作用を伴わないゲームから、強度スコアを算出し、ランクを予測する。
SE-MCTSはモンテカルロ木探索の強度スコアを利用して演奏強度とスタイルを調整する。
- 参考スコア(独自算出の注目度): 8.060650865131112
- License:
- Abstract: Strength estimation and adjustment are crucial in designing human-AI interactions, particularly in games where AI surpasses human players. This paper introduces a novel strength system, including a strength estimator (SE) and an SE-based Monte Carlo tree search, denoted as SE-MCTS, which predicts strengths from games and offers different playing strengths with human styles. The strength estimator calculates strength scores and predicts ranks from games without direct human interaction. SE-MCTS utilizes the strength scores in a Monte Carlo tree search to adjust playing strength and style. We first conduct experiments in Go, a challenging board game with a wide range of ranks. Our strength estimator significantly achieves over 80% accuracy in predicting ranks by observing 15 games only, whereas the previous method reached 49% accuracy for 100 games. For strength adjustment, SE-MCTS successfully adjusts to designated ranks while achieving a 51.33% accuracy in aligning to human actions, outperforming a previous state-of-the-art, with only 42.56% accuracy. To demonstrate the generality of our strength system, we further apply SE and SE-MCTS to chess and obtain consistent results. These results show a promising approach to strength estimation and adjustment, enhancing human-AI interactions in games. Our code is available at https://rlg.iis.sinica.edu.tw/papers/strength-estimator.
- Abstract(参考訳): 強度推定と調整は、人間とAIの相互作用、特にAIが人間のプレイヤーを上回るゲームの設計に不可欠である。
本稿では,SEを用いたモンテカルロ木探索システム(SE-MCTS,SE-MCTS,SE-MCTS,SE-MCTS,SE-MCTS,SE-MCTS,SE-MCTS,SE-MCTS)について述べる。
強度推定器は、人間の直接の相互作用を伴わないゲームから、強度スコアを算出し、ランクを予測する。
SE-MCTSはモンテカルロ木探索の強度スコアを利用して演奏強度とスタイルを調整する。
私たちはまず、幅広いランクを持つ挑戦的なボードゲームであるGoで実験を行います。
我々の強度推定器は15ゲームのみを観察することでランク予測の精度を80%以上向上する一方、従来の手法は100ゲームに対して49%の精度を達成した。
強度調整のため、SE-MCTSは51.33%の精度で人間の行動に合わせることができ、従来の最先端よりも42.56%の精度で性能が向上した。
強度システムの汎用性を示すため,SEとSE-MCTSをチェスに適用し,一貫した結果を得る。
これらの結果は,ゲームにおける人間とAIの相互作用を向上し,強度推定と調整に有望なアプローチを示す。
私たちのコードはhttps://rlg.iis.sinica.edu.tw/papers/strength-estimatorで利用可能です。
関連論文リスト
- Identifying and Clustering Counter Relationships of Team Compositions in PvP Games for Efficient Balance Analysis [24.683917771144536]
ゼロサム競争シナリオにおけるバランスを定量化する尺度を開発する。
我々は、合成の有用なカテゴリを特定し、それらのカウンター関係をピンポイントする。
私たちのフレームワークは、Eage of Empires II、Hearthstone、Brawl Stars、League of Legendsなど、人気のあるオンラインゲームで検証されています。
論文 参考訳(メタデータ) (2024-08-30T10:28:36Z) - Reinforcement Learning for High-Level Strategic Control in Tower Defense Games [47.618236610219554]
戦略ゲームにおいて、ゲームデザインの最も重要な側面の1つは、プレイヤーにとっての挑戦の感覚を維持することである。
従来のスクリプティング手法と強化学習を組み合わせた自動手法を提案する。
その結果、強化学習のような学習アプローチとスクリプトAIを組み合わせることで、AIのみを使用するよりも高性能で堅牢なエージェントが生まれることが示された。
論文 参考訳(メタデータ) (2024-06-12T08:06:31Z) - DanZero+: Dominating the GuanDan Game through Reinforcement Learning [95.90682269990705]
我々は、GuanDanという、非常に複雑で人気のあるカードゲームのためのAIプログラムを開発した。
私たちはまず、DanZeroという名のAIプログラムをこのゲームのために提案しました。
AIの能力をさらに強化するために、政策に基づく強化学習アルゴリズムをGuanDanに適用する。
論文 参考訳(メタデータ) (2023-12-05T08:07:32Z) - Behavioral Player Rating in Competitive Online Shooter Games [3.203973145772361]
本稿では,ゲーム内統計学からモデルプレイヤへのいくつかの特徴を設計し,その振る舞いと真のパフォーマンスレベルを正確に表現するレーティングを作成する。
その結果, 動作評価は, 生成した表現の解釈可能性を維持しつつ, より正確な性能評価を示すことがわかった。
プレイヤーのプレイ行動の異なる側面を考慮し、マッチメイキングに行動評価を使用すると、プレイヤーのゴールや関心とより一致したマッチアップにつながる可能性がある。
論文 参考訳(メタデータ) (2022-07-01T16:23:01Z) - CommonsenseQA 2.0: Exposing the Limits of AI through Gamification [126.85096257968414]
現代自然言語理解モデルの能力をテストするベンチマークを構築した。
本研究では,データ構築の枠組みとしてゲーミフィケーションを提案する。
論文 参考訳(メタデータ) (2022-01-14T06:49:15Z) - Evaluation of Human-AI Teams for Learned and Rule-Based Agents in Hanabi [0.0]
我々は,ルールベースエージェントと学習ベースエージェントの両方を用いて,協力型カードゲームEmphHanabiにおける人間とAIエージェントのチームを評価する。
人間は、最先端の学習ベースのAIチームメイトよりも、ルールベースのAIチームメイトをはっきりと好みます。
論文 参考訳(メタデータ) (2021-07-15T22:19:15Z) - Improve Agents without Retraining: Parallel Tree Search with Off-Policy
Correction [63.595545216327245]
木探索(TS)における2つの大きな課題に取り組む。
我々はまず、TSと事前学習された値関数による行動選択が、元の事前学習されたエージェントと比較して性能を低下させるという、反直感的な現象を発見し、分析する。
Batch-BFS(Batch-BFS)は,木の各深さのすべてのノードを同時に前進させるGPUワイドファースト検索である。
論文 参考訳(メタデータ) (2021-07-04T19:32:24Z) - Evaluating Team Skill Aggregation in Online Competitive Games [4.168733556014873]
本稿では,2つの新しい集計手法が評価システムの予測性能に与える影響について分析する。
以上の結果から,テストケースの大部分において,MAX法が他の2手法よりも優れていることが示された。
本研究の結果は,チームのパフォーマンスを計算するために,より精巧な手法を考案する必要性を浮き彫りにした。
論文 参考訳(メタデータ) (2021-06-21T20:17:36Z) - Interpretable Real-Time Win Prediction for Honor of Kings, a Popular
Mobile MOBA Esport [51.20042288437171]
本研究では,2段階空間時間ネットワーク(TSSTN)を提案する。
実世界のライブストリーミングシナリオにおける実験結果と応用により,提案したTSSTNモデルは予測精度と解釈可能性の両方において有効であることが示された。
論文 参考訳(メタデータ) (2020-08-14T12:00:58Z) - Learning Dynamic Belief Graphs to Generalize on Text-Based Games [55.59741414135887]
テキストベースのゲームをプレイするには、自然言語処理とシーケンシャルな意思決定のスキルが必要である。
本研究では,原文からエンドツーエンドに学習したグラフ構造化表現を用いて,エージェントがテキストベースのゲームでどのように計画・一般化できるかを検討する。
論文 参考訳(メタデータ) (2020-02-21T04:38:37Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。