論文の概要: Multi-AI competing and winning against humans in iterated
Rock-Paper-Scissors game
- arxiv url: http://arxiv.org/abs/2003.06769v2
- Date: Mon, 23 Nov 2020 04:57:39 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-23 09:03:56.057080
- Title: Multi-AI competing and winning against humans in iterated
Rock-Paper-Scissors game
- Title(参考訳): 反復したRock-Paper-Scissorsゲームで対戦し、人間に勝つマルチAI
- Authors: Lei Wang, Wenbin Huang, Yuanpeng Li, Julian Evans, Sailing He
- Abstract要約: 我々は1つの固定メモリ長のマルコフモデルに基づくAIアルゴリズムを用いて、反復したRock Paper Scissorsゲームで人間と競合する。
我々は、異なる競合戦略に対応するために、変更可能なパラメータを持つマルチAIアーキテクチャを開発する。
我々の戦略は、95%以上の人間の対戦相手に勝つことができる。
- 参考スコア(独自算出の注目度): 4.2124879433151605
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Predicting and modeling human behavior and finding trends within human
decision-making processes is a major problem of social science. Rock Paper
Scissors (RPS) is the fundamental strategic question in many game theory
problems and real-world competitions. Finding the right approach to beat a
particular human opponent is challenging. Here we use an AI (artificial
intelligence) algorithm based on Markov Models of one fixed memory length
(abbreviated as "single AI") to compete against humans in an iterated RPS game.
We model and predict human competition behavior by combining many Markov Models
with different fixed memory lengths (abbreviated as "multi-AI"), and develop an
architecture of multi-AI with changeable parameters to adapt to different
competition strategies. We introduce a parameter called "focus length" (a
positive number such as 5 or 10) to control the speed and sensitivity for our
multi-AI to adapt to the opponent's strategy change. The focus length is the
number of previous rounds that the multi-AI should look at when determining
which Single-AI has the best performance and should choose to play for the next
game. We experimented with 52 different people, each playing 300 rounds
continuously against one specific multi-AI model, and demonstrated that our
strategy could win against more than 95% of human opponents.
- Abstract(参考訳): 人間の行動の予測とモデル化、そして人間の意思決定プロセスにおけるトレンドの発見は、社会科学の大きな問題である。
Rock Paper Scissors (RPS)は、多くのゲーム理論問題や現実世界の競争において、基本的な戦略的問題である。
特定の人間の相手を打ち負かす正しいアプローチを見つけるのは困難です。
ここでは,1つの固定メモリ長のマルコフモデルに基づくAI(人工知能)アルゴリズムを用いて,反復RPSゲームにおいて人間と競合する。
複数のマルコフモデルと異なる固定メモリ長("multi-ai"と略される)を組み合わせて人間の競争行動のモデル化と予測を行い、異なる競争戦略に適応するために変更可能なパラメータを持つマルチaiのアーキテクチャを開発する。
対戦相手の戦略変化に適応するために,マルチAIの速度と感度を制御するために「焦点長」(5や10などの正の数)と呼ばれるパラメータを導入する。
フォーカス長は、マルチAIがどのシングルAIが最高のパフォーマンスを持ち、次のゲームでプレーするかを決める際に見るべき前のラウンドの数である。
それぞれが1つのマルチaiモデルに対して300ラウンド連続でプレイする52人の異なる人物を実験し、その戦略が人間の95%以上の敵に勝利できることを実証した。
関連論文リスト
- Toward Human-AI Alignment in Large-Scale Multi-Player Games [24.784173202415687]
我々はXboxのBleeding Edge(100K+ゲーム)から広範囲にわたる人間のゲームプレイデータを解析する。
人間のプレイヤーは、戦闘飛行や探索飛行行動において多様性を示す一方で、AIプレイヤーは均一性に向かう傾向にある。
これらの大きな違いは、ヒューマンアラインアプリケーションにおけるAIの解釈可能な評価、設計、統合の必要性を浮き彫りにしている。
論文 参考訳(メタデータ) (2024-02-05T22:55:33Z) - DanZero+: Dominating the GuanDan Game through Reinforcement Learning [95.90682269990705]
我々は、GuanDanという、非常に複雑で人気のあるカードゲームのためのAIプログラムを開発した。
私たちはまず、DanZeroという名のAIプログラムをこのゲームのために提案しました。
AIの能力をさらに強化するために、政策に基づく強化学習アルゴリズムをGuanDanに適用する。
論文 参考訳(メタデータ) (2023-12-05T08:07:32Z) - All by Myself: Learning Individualized Competitive Behaviour with a
Contrastive Reinforcement Learning optimization [57.615269148301515]
競争ゲームのシナリオでは、エージェントのセットは、彼らの目標を最大化し、敵の目標を同時に最小化する決定を学習する必要があります。
本稿では,競争ゲームの表現を学習し,特定の相手の戦略をどうマップするか,それらを破壊するかを学習する3つのニューラルネットワーク層からなる新しいモデルを提案する。
我々の実験は、オフライン、オンライン、競争特化モデル、特に同じ対戦相手と複数回対戦した場合に、我々のモデルがより良いパフォーマンスを達成することを示した。
論文 参考訳(メタデータ) (2023-10-02T08:11:07Z) - Diversity is Strength: Mastering Football Full Game with Interactive
Reinforcement Learning of Multiple AIs [4.020287169811583]
本稿では,多種多様なAIを同時に訓練できる新しいDRLトレーニングフレームワークであるDiversity is Strength (DIS)を提案する。
これらのAIは相互接続された履歴モデルプール構造を介してリンクされ、その能力と戦略の多様性が向上する。
私たちはGoogle Research Football(GRF)に基づいたAIコンペティションでテストを行い、5v5と11v11のトラックで優勝しました。
論文 参考訳(メタデータ) (2023-06-28T03:56:57Z) - Diversity-based Deep Reinforcement Learning Towards Multidimensional
Difficulty for Fighting Game AI [0.9645196221785693]
多様性に基づく深層強化学習手法を導入し,類似した難易度を持つエージェント群を創出する。
このアプローチは,多様性と性能の両面で,専門的かつ人為的な報酬関数で訓練されたベースラインを上回っている。
論文 参考訳(メタデータ) (2022-11-04T21:49:52Z) - WinoGAViL: Gamified Association Benchmark to Challenge
Vision-and-Language Models [91.92346150646007]
本研究では,視覚・言語関係を収集するオンラインゲームであるWinoGAViLを紹介する。
私たちはこのゲームを使って3.5Kのインスタンスを収集し、それらが人間には直感的だが最先端のAIモデルには挑戦的であることを発見した。
我々の分析とプレイヤーからのフィードバックは、収集された協会が多様な推論スキルを必要とすることを示している。
論文 参考訳(メタデータ) (2022-07-25T23:57:44Z) - AI in Games: Techniques, Challenges and Opportunities [40.86375378643978]
Libratus、OpenAI Five、AlphaStarといった様々なゲームAIシステムが開発され、プロの人間プレイヤーに勝っている。
本稿では,最近成功したゲームAI,ボードゲームAI,カードゲームAI,ファーストパーソンシューティングゲームAI,リアルタイム戦略ゲームAIについて調査する。
論文 参考訳(メタデータ) (2021-11-15T09:35:53Z) - Generating Diverse and Competitive Play-Styles for Strategy Games [58.896302717975445]
ターン型戦略ゲーム(Tribes)のためのプログレッシブアンプランによるPortfolio Monte Carlo Tree Searchを提案する。
品質分散アルゴリズム(MAP-Elites)を使用して異なるプレイスタイルを実現し、競争レベルを維持しながらパラメータ化する方法を示します。
その結果,このアルゴリズムは,トレーニングに用いるレベルを超えて,幅広いゲームレベルにおいても,これらの目標を達成できることが示された。
論文 参考訳(メタデータ) (2021-04-17T20:33:24Z) - Learning to Play Sequential Games versus Unknown Opponents [93.8672371143881]
学習者が最初にプレーするゲームと、選択した行動に反応する相手との連続的なゲームについて考察する。
対戦相手の対戦相手列と対戦する際,学習者に対して新しいアルゴリズムを提案する。
我々の結果には、相手の反応の正則性に依存するアルゴリズムの後悔の保証が含まれている。
論文 参考訳(メタデータ) (2020-07-10T09:33:05Z) - Is the Most Accurate AI the Best Teammate? Optimizing AI for Teamwork [54.309495231017344]
AIシステムは人間中心の方法でトレーニングされ、チームのパフォーマンスに直接最適化されるべきである、と私たちは主張する。
我々は,AIレコメンデーションを受け入れるか,あるいはタスク自体を解決するかを選択する,特定のタイプのAIチームを提案する。
実世界の高精度データセット上での線形モデルと非線形モデルによる実験は、AIが最も正確であることは、最高のチームパフォーマンスに繋がらないことを示している。
論文 参考訳(メタデータ) (2020-04-27T19:06:28Z) - Enhanced Rolling Horizon Evolution Algorithm with Opponent Model
Learning: Results for the Fighting Game AI Competition [9.75720700239984]
本稿では,RHEA(Rolling Horizon Evolution Algorithm)と対向モデル学習を組み合わせた新しいアルゴリズムを提案する。
2019年の競争で上位5つのボットのうち、モンテカルロツリーサーチ(MCTS)を使用しないボットは、ポリシーグラディエントベースの対戦モデルによるボットのみである。
論文 参考訳(メタデータ) (2020-03-31T04:44:33Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。