論文の概要: Policies of Multiple Skill Levels for Better Strength Estimation in Games
- arxiv url: http://arxiv.org/abs/2505.00279v1
- Date: Thu, 01 May 2025 04:02:20 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-02 19:15:55.215229
- Title: Policies of Multiple Skill Levels for Better Strength Estimation in Games
- Title(参考訳): 競技における強度評価のための複数スキルレベルの検討
- Authors: Kyota Kuboki, Tatsuyoshi Ogawa, Chu-Hsuan Hsueh, Shi-Jim Yen, Kokolo Ikeda,
- Abstract要約: AIプレイヤーがトップの人間のプロフェッショナルに勝っているゲームでは、人間のスキルレベルに合わせてAIの振る舞いを適用する上で、強度推定が重要な役割を果たす。
本稿では,人間の選手の行動傾向が,その強さによって異なるという観察に焦点をあてる。
次に、これらのポリシーに基づく特徴と強度スコアを組み合わせて、強度を見積もる。
また,Goでは10試合で80%の精度を達成し,20試合で92%に向上した。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Accurately estimating human skill levels is crucial for designing effective human-AI interactions so that AI can provide appropriate challenges or guidance. In games where AI players have beaten top human professionals, strength estimation plays a key role in adapting AI behavior to match human skill levels. In a previous state-of-the-art study, researchers have proposed a strength estimator trained using human players' match data. Given some matches, the strength estimator computes strength scores and uses them to estimate player ranks (skill levels). In this paper, we focus on the observation that human players' behavior tendency varies according to their strength and aim to improve the accuracy of strength estimation by taking this into account. Specifically, in addition to strength scores, we obtain policies for different skill levels from neural networks trained using human players' match data. We then combine features based on these policies with the strength scores to estimate strength. We conducted experiments on Go and chess. For Go, our method achieved an accuracy of 80% in strength estimation when given 10 matches, which increased to 92% when given 20 matches. In comparison, the previous state-of-the-art method had an accuracy of 71% with 10 matches and 84% with 20 matches, demonstrating improvements of 8-9%. We observed similar improvements in chess. These results contribute to developing a more accurate strength estimation method and to improving human-AI interaction.
- Abstract(参考訳): 人間のスキルレベルを正確に推定することは、AIが適切な課題やガイダンスを提供できるように、効果的な人間とAIのインタラクションを設計するために不可欠である。
AIプレイヤーがトップの人間のプロフェッショナルに勝っているゲームでは、人間のスキルレベルに合わせてAIの振る舞いを適用する上で、強度推定が重要な役割を果たす。
過去の最先端の研究で、研究者は人間の選手のマッチデータを用いてトレーニングされた強度推定器を提案した。
いくつかのマッチが与えられると、強度推定器は強さのスコアを計算し、プレイヤーのランク(スキルレベル)を推定する。
本稿では,人間選手の行動傾向が,その強さによって異なることに着目し,これを考慮し,強度推定の精度を向上させることを目的とする。
具体的には、強度スコアに加えて、人間の選手のマッチングデータを用いてトレーニングされたニューラルネットワークから、異なるスキルレベルに対するポリシーを得る。
次に、これらのポリシーに基づく特徴と強度スコアを組み合わせて、強度を見積もる。
囲碁とチェスの実験を行った。
また,Goでは10試合で80%の精度を達成し,20試合で92%に向上した。
一方,従来の最先端手法では,10試合で71%,20試合で84%の精度で8~9%の改善が見られた。
我々はチェスの同様の改良を観察した。
これらの結果は,より正確な強度推定法の開発と,人間とAIの相互作用の改善に寄与する。
関連論文リスト
- Strength Estimation and Human-Like Strength Adjustment in Games [8.060650865131112]
本稿では, 強度推定器 (SE) とモンテカルロ木探索法 (SE-based Monte Carlo tree search) を含む新しい強度システムを提案する。
強度推定器は、人間の直接の相互作用を伴わないゲームから、強度スコアを算出し、ランクを予測する。
SE-MCTSはモンテカルロ木探索の強度スコアを利用して演奏強度とスタイルを調整する。
論文 参考訳(メタデータ) (2025-02-24T12:47:47Z) - Reinforcement Learning for High-Level Strategic Control in Tower Defense Games [47.618236610219554]
戦略ゲームにおいて、ゲームデザインの最も重要な側面の1つは、プレイヤーにとっての挑戦の感覚を維持することである。
従来のスクリプティング手法と強化学習を組み合わせた自動手法を提案する。
その結果、強化学習のような学習アプローチとスクリプトAIを組み合わせることで、AIのみを使用するよりも高性能で堅牢なエージェントが生まれることが示された。
論文 参考訳(メタデータ) (2024-06-12T08:06:31Z) - DanZero+: Dominating the GuanDan Game through Reinforcement Learning [95.90682269990705]
我々は、GuanDanという、非常に複雑で人気のあるカードゲームのためのAIプログラムを開発した。
私たちはまず、DanZeroという名のAIプログラムをこのゲームのために提案しました。
AIの能力をさらに強化するために、政策に基づく強化学習アルゴリズムをGuanDanに適用する。
論文 参考訳(メタデータ) (2023-12-05T08:07:32Z) - ApproxED: Approximate exploitability descent via learned best responses [61.17702187957206]
連続的なアクションセットを持つゲームの近似的ナッシュ均衡を求める問題について検討する。
本稿では,戦略プロファイルに対するエクスプロイラビリティの近似を最小化する2つの新しい手法を提案する。
論文 参考訳(メタデータ) (2023-01-20T23:55:30Z) - CommonsenseQA 2.0: Exposing the Limits of AI through Gamification [126.85096257968414]
現代自然言語理解モデルの能力をテストするベンチマークを構築した。
本研究では,データ構築の枠組みとしてゲーミフィケーションを提案する。
論文 参考訳(メタデータ) (2022-01-14T06:49:15Z) - Instructive artificial intelligence (AI) for human training, assistance,
and explainability [0.24629531282150877]
ニューラルネットワークが従来のAI(XAI)の代替手段として人間の研修生にどのように教えるかを示す。
AIは人間の行動を調べ、より良いパフォーマンスをもたらす人間の戦略のバリエーションを計算する。
結果は、ハナビにおける人間の意思決定と人間-AIチームを改善するAIインストラクションの能力について提示される。
論文 参考訳(メタデータ) (2021-11-02T16:46:46Z) - Evaluation of Human-AI Teams for Learned and Rule-Based Agents in Hanabi [0.0]
我々は,ルールベースエージェントと学習ベースエージェントの両方を用いて,協力型カードゲームEmphHanabiにおける人間とAIエージェントのチームを評価する。
人間は、最先端の学習ベースのAIチームメイトよりも、ルールベースのAIチームメイトをはっきりと好みます。
論文 参考訳(メタデータ) (2021-07-15T22:19:15Z) - Evaluating Team Skill Aggregation in Online Competitive Games [4.168733556014873]
本稿では,2つの新しい集計手法が評価システムの予測性能に与える影響について分析する。
以上の結果から,テストケースの大部分において,MAX法が他の2手法よりも優れていることが示された。
本研究の結果は,チームのパフォーマンスを計算するために,より精巧な手法を考案する必要性を浮き彫りにした。
論文 参考訳(メタデータ) (2021-06-21T20:17:36Z) - Learning to Play Sequential Games versus Unknown Opponents [93.8672371143881]
学習者が最初にプレーするゲームと、選択した行動に反応する相手との連続的なゲームについて考察する。
対戦相手の対戦相手列と対戦する際,学習者に対して新しいアルゴリズムを提案する。
我々の結果には、相手の反応の正則性に依存するアルゴリズムの後悔の保証が含まれている。
論文 参考訳(メタデータ) (2020-07-10T09:33:05Z) - Aligning Superhuman AI with Human Behavior: Chess as a Model System [5.236087378443016]
我々は、人間のチェスゲームで訓練されたAlpha-Zeroのカスタマイズ版であるMaiaを開発し、既存のエンジンよりもはるかに高い精度で人間の動きを予測する。
人間が次の動きで大きな間違いを犯すかどうかを予測する2つのタスクに対して、我々は、競争ベースラインを大幅に上回るディープニューラルネットワークを開発する。
論文 参考訳(メタデータ) (2020-06-02T18:12:52Z) - Learning from Learners: Adapting Reinforcement Learning Agents to be
Competitive in a Card Game [71.24825724518847]
本稿では,競争力のあるマルチプレイヤーカードゲームの現実的な実装を学習・プレイするために,一般的な強化学習アルゴリズムをどのように適用できるかについて検討する。
本研究は,学習エージェントに対して,エージェントが競争力を持つことの学習方法を評価するための特定のトレーニングと検証ルーチンを提案し,それらが相互の演奏スタイルにどのように適応するかを説明する。
論文 参考訳(メタデータ) (2020-04-08T14:11:05Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。