論文の概要: Elo Ratings for Large Tournaments of Software Agents in Asymmetric Games
- arxiv url: http://arxiv.org/abs/2105.00839v1
- Date: Fri, 23 Apr 2021 21:49:20 GMT
- ステータス: 処理完了
- システム内更新日: 2021-05-04 20:44:52.933366
- Title: Elo Ratings for Large Tournaments of Software Agents in Asymmetric Games
- Title(参考訳): 非対称ゲームにおける大規模ソフトウェアエージェントのエロレーティング
- Authors: Ben Wise
- Abstract要約: alphago zeroによる5185のレーティングのような、人間と同じeloスケールの人工知能エージェントを評価するのは自然である。
人間とAIの間には、システムの変更を提案する基本的な違いがいくつかある。
本稿では,これらの違いを反映したリフレッシュレーティングシステムとトーナメントのガイドラインを提案する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: The Elo rating system has been used world wide for individual sports and team
sports, as exemplified by the European Go Federation (EGF), International Chess
Federation (FIDE), International Federation of Association Football (FIFA), and
many others. To evaluate the performance of artificial intelligence agents, it
is natural to evaluate them on the same Elo scale as humans, such as the rating
of 5185 attributed to AlphaGo Zero.
There are several fundamental differences between humans and AI that suggest
modifications to the system, which in turn require revisiting Elo's fundamental
rationale. AI is typically trained on many more games than humans play, and we
have little a-priori information on newly created AI agents. Further, AI is
being extended into games which are asymmetric between the players, and which
could even have large complex boards with different setup in every game, such
as commercial paper strategy games. We present a revised rating system, and
guidelines for tournaments, to reflect these differences.
- Abstract(参考訳): eloレーティングシステムは、欧州go連盟(egf)、国際チェス連盟(fide)、国際サッカー連盟(fifa)などによって例示されるように、個々のスポーツやチームスポーツに世界規模で使用されている。
人工知能エージェントの性能を評価するには、alphago zeroによる5185のレーティングのような、人間と同じeloスケールで評価するのが自然である。
人間とAIの間にはいくつかの根本的な違いがあり、システムの変更を提案する。
AIは通常、人間がプレイするよりも多くのゲームでトレーニングされています。
さらに、AIはプレイヤー間で非対称なゲームに拡張されており、商用の紙戦略ゲームなど、すべてのゲームで異なるセットアップの大規模な複雑なボードを持つこともできる。
本稿では,これらの違いを反映したリフレッシュレーティングシステムとトーナメントのガイドラインを提案する。
関連論文リスト
- Human-aligned Chess with a Bit of Search [35.16633353273246]
チェスは長年、AIが人間の知性と一致しようとする試みの場だった。
本稿では,この古典的なゲームにおいて,人工知能と人間の知能のギャップを埋めるために設計されたチェスをプレイするAIであるAllieを紹介する。
論文 参考訳(メタデータ) (2024-10-04T19:51:03Z) - DanZero+: Dominating the GuanDan Game through Reinforcement Learning [95.90682269990705]
我々は、GuanDanという、非常に複雑で人気のあるカードゲームのためのAIプログラムを開発した。
私たちはまず、DanZeroという名のAIプログラムをこのゲームのために提案しました。
AIの能力をさらに強化するために、政策に基づく強化学習アルゴリズムをGuanDanに適用する。
論文 参考訳(メタデータ) (2023-12-05T08:07:32Z) - Diversifying AI: Towards Creative Chess with AlphaZero [22.169342583475938]
多様なAIシステムからなるチームが、グループとしてより多くのアイデアを生成し、最適なAIを選択することで、困難なタスクにおいて1つのAIより優れているかどうかを調査する。
我々の実験は、AZ_dbが様々な方法でチェスをし、グループとしてより多くのパズルを解き、より均質なチームを上回ることを示唆している。
我々の研究結果は、AIエージェントのチームでは、人間のチームと同じように多様性のボーナスが現れることを示唆している。
論文 参考訳(メタデータ) (2023-08-17T20:27:33Z) - DanZero: Mastering GuanDan Game with Reinforcement Learning [121.93690719186412]
カードゲームAIは、人工知能の研究において常にホットな話題となっている。
本稿では,より複雑なカードゲームであるGuanDanのためのAIプログラムの開発に専念する。
そこで我々は,強化学習技術を用いたGuanDanのためのAIプログラムDanZeroを提案する。
論文 参考訳(メタデータ) (2022-10-31T06:29:08Z) - Mastering the Game of No-Press Diplomacy via Human-Regularized
Reinforcement Learning and Planning [95.78031053296513]
ノープレス外交(No-press Diplomacy)は、協力と競争の両方を含む複雑な戦略ゲームである。
我々は、人間の模倣学習ポリシーに対する報酬最大化ポリシーを規則化する、DiL-piKLと呼ばれる計画アルゴリズムを導入する。
RL-DiL-piKLと呼ばれる自己再生強化学習アルゴリズムに拡張可能であることを示す。
論文 参考訳(メタデータ) (2022-10-11T14:47:35Z) - Learning to Identify Top Elo Ratings: A Dueling Bandits Approach [27.495132915328025]
我々は,Elo評価(トッププレイヤー)のサンプル効率を改善するために,効率的なオンラインマッチングスケジューリングアルゴリズムを提案する。
具体的には、上位プレイヤーをデュエルバンドフレームワークで識別し、Eloの勾配ベースの更新に合わせてバンディットアルゴリズムを調整する。
我々のアルゴリズムは、競合ラウンドの数で$tildeO(sqrtT)$, sublinearを保証しており、多次元エロ評価にまで拡張されている。
論文 参考訳(メタデータ) (2022-01-12T13:57:29Z) - Evaluation of Human-AI Teams for Learned and Rule-Based Agents in Hanabi [0.0]
我々は,ルールベースエージェントと学習ベースエージェントの両方を用いて,協力型カードゲームEmphHanabiにおける人間とAIエージェントのチームを評価する。
人間は、最先端の学習ベースのAIチームメイトよりも、ルールベースのAIチームメイトをはっきりと好みます。
論文 参考訳(メタデータ) (2021-07-15T22:19:15Z) - ELO System for Skat and Other Games of Chance [1.3706331473063877]
ELOランキングシステムは、ゼロサムゲームにおけるプレイヤーの相対スキルレベルを計算する信頼できる方法であることが証明されています。
しかし、skatやbridgeのようなトリックテイクカードゲームにおけるプレイヤーの強さの評価は明らかではない。
これらの弱点を克服するための新しいELOシステムを提案します。
論文 参考訳(メタデータ) (2021-04-07T08:30:01Z) - Game Plan: What AI can do for Football, and What Football can do for AI [83.79507996785838]
予測的および規範的フットボール分析は、統計学習、ゲーム理論、コンピュータビジョンの交差点における新たな発展と進歩を必要とする。
フットボール分析は、サッカー自体のゲームを変えるだけでなく、この領域がAIの分野で何を意味するのかという観点からも、非常に価値の高いゲームチェンジャーであることを示す。
論文 参考訳(メタデータ) (2020-11-18T10:26:02Z) - Is the Most Accurate AI the Best Teammate? Optimizing AI for Teamwork [54.309495231017344]
AIシステムは人間中心の方法でトレーニングされ、チームのパフォーマンスに直接最適化されるべきである、と私たちは主張する。
我々は,AIレコメンデーションを受け入れるか,あるいはタスク自体を解決するかを選択する,特定のタイプのAIチームを提案する。
実世界の高精度データセット上での線形モデルと非線形モデルによる実験は、AIが最も正確であることは、最高のチームパフォーマンスに繋がらないことを示している。
論文 参考訳(メタデータ) (2020-04-27T19:06:28Z) - Suphx: Mastering Mahjong with Deep Reinforcement Learning [114.68233321904623]
我々は、新たに導入されたいくつかの技術を用いた深層強化学習に基づいて、Suphxという名のマフジョンのためのAIを設計する。
Suphxは、安定したランクの点で、ほとんどのトップの人間プレイヤーよりも強いパフォーマンスを示している。
コンピュータプログラムがマヒョンで最上位の人間プレイヤーを上回るのは、これが初めてである。
論文 参考訳(メタデータ) (2020-03-30T16:18:16Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。