論文の概要: Finding the optimal human strategy for Wordle using maximum correct
letter probabilities and reinforcement learning
- arxiv url: http://arxiv.org/abs/2202.00557v1
- Date: Tue, 1 Feb 2022 17:03:26 GMT
- ステータス: 処理完了
- システム内更新日: 2022-02-02 14:45:53.033518
- Title: Finding the optimal human strategy for Wordle using maximum correct
letter probabilities and reinforcement learning
- Title(参考訳): 最大文字確率と強化学習を用いたWordleの最適人文戦略の探索
- Authors: Benton J. Anderson, Jesse G. Meyer
- Abstract要約: Wordleは2022年1月に普及したオンラインパズルゲームである。
本稿では,単語選択のための2つの方法と,最適な人的戦略を発見するための枠組みを提案する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Wordle is an online word puzzle game that gained viral popularity in January
2022. The goal is to guess a hidden five letter word. After each guess, the
player gains information about whether the letters they guessed are present in
the word, and whether they are in the correct position. Numerous blogs have
suggested guessing strategies and starting word lists that improve the chance
of winning. Optimized algorithms can win 100% of games within five of the six
allowed trials. However, it is infeasible for human players to use these
algorithms due to an inability to perfectly recall all known 5-letter words and
perform complex calculations that optimize information gain. Here, we present
two different methods for choosing starting words along with a framework for
discovering the optimal human strategy based on reinforcement learning. Human
Wordle players can use the rules we discover to optimize their chance of
winning.
- Abstract(参考訳): Wordleは2022年1月に普及したオンラインパズルゲームである。
目標は、隠れた5文字の単語を推測することだ。
それぞれの推測の後、プレイヤーは、推測された文字が単語の中に存在するか、正しい位置にあるかの情報を得る。
多くのブログが推測戦略と、勝利の可能性を高める単語リストの開始を提案している。
最適化されたアルゴリズムは、6つの許容試験のうち5つでゲームの100%を勝ち取ることができる。
しかし、全ての既知の5文字単語を完全にリコールし、情報ゲインを最適化する複雑な計算を行うことができないため、人間のプレイヤーはこれらのアルゴリズムを使用することができない。
本稿では,強化学習に基づく最適な人間戦略を発見するための枠組みとともに,単語選択のための2つの異なる手法を提案する。
人間のWordleプレーヤーは、私たちが発見するルールを使って勝利のチャンスを最適化することができる。
関連論文リスト
- Wordle: A Microcosm of Life. Luck, Skill, Cheating, Loyalty, and
Influence! [0.0]
Wordle(ワール)は、ニューヨーク・タイムズが提供しているオンラインゲームである。
プレイヤーは毎日の言葉(ターゲット語)を推測する6つの試みがある
各試行の後、プレイヤーは推測において各文字の正しさと位置に関する色分けされた情報を受信する。
論文 参考訳(メタデータ) (2023-09-05T10:38:53Z) - On Optimal Strategies for Wordle and General Guessing Games [6.85316573653194]
我々は,徹底的な探索を回避しながら,ゲーム推定のための最適な戦略を見つける方法を開発した。
この研究は任意の推測ゲームに適用するために開発されていますが、具体的な結果を示す例としてWordleを使用します。
論文 参考訳(メタデータ) (2023-05-16T02:30:10Z) - ApproxED: Approximate exploitability descent via learned best responses [61.17702187957206]
連続的なアクションセットを持つゲームの近似的ナッシュ均衡を求める問題について検討する。
本稿では,戦略プロファイルに対するエクスプロイラビリティの近似を最小化する2つの新しい手法を提案する。
論文 参考訳(メタデータ) (2023-01-20T23:55:30Z) - Strategizing against Learners in Bayesian Games [74.46970859427907]
プレイヤーの1人である学習者が無学習の学習戦略を採用する2人プレイヤゲームについて検討した。
一般のベイズゲームでは,学習者と学習者の双方の報酬の支払いが,そのタイプに依存する可能性がある。
論文 参考訳(メタデータ) (2022-05-17T18:10:25Z) - Using Wordle for Learning to Design and Compare Strategies [0.685316573653194]
ゲームに関する確率的,統計的,情報理論的な情報に基づいて,Wordleを解くためのパラメータ化戦略を設計することができる。
この戦略は、システム的にも動的にも、Wordleのようなゲーム群を合理的に扱うことができる。
本稿では,現在のWordleを解くために,パラメータ化戦略の2つのファミリを用いた結果について述べる。
論文 参考訳(メタデータ) (2022-04-30T14:41:25Z) - Selecting Seed Words for Wordle using Character Statistics [0.3108011671896571]
Wordleは2022年1月に世界的に人気を博した。
ゲームの目的は、6回の試行で5文字の英語単語を推測することである。
本研究は,5文字単語の文字統計を用いて,最もよい3文字単語を決定する。
論文 参考訳(メタデータ) (2022-02-07T19:01:19Z) - Semantic-Preserving Adversarial Text Attacks [85.32186121859321]
深層モデルの脆弱性を調べるために, Bigram と Unigram を用いた適応的セマンティック保存最適化法 (BU-SPO) を提案する。
提案手法は,既存手法と比較して最小の単語数を変更することで,攻撃成功率とセマンティックス率を最大化する。
論文 参考訳(メタデータ) (2021-08-23T09:05:18Z) - Playing Codenames with Language Graphs and Word Embeddings [21.358501003335977]
言語グラフBabelNetからコード名の手がかりを生成できるアルゴリズムを提案する。
本稿では,手掛かりの質を測定する新しいスコアリング機能を提案する。
BabelNet-Word Selection Framework(BabelNet-WSF)を開発して、BabelNetの手がかり品質を向上させます。
論文 参考訳(メタデータ) (2021-05-12T18:23:03Z) - Faster Algorithms for Optimal Ex-Ante Coordinated Collusive Strategies
in Extensive-Form Zero-Sum Games [123.76716667704625]
我々は,不完全情報ゼロサム拡張形式ゲームにおいて,対戦相手と対決する2人の選手のチームにとって最適な戦略を見つけることの課題に焦点をあてる。
この設定では、チームができる最善のことは、ゲーム開始時の関節(つまり相関した)確率分布から潜在的にランダム化された戦略(プレイヤー1人)のプロファイルをサンプリングすることである。
各プロファイルにランダム化されるのはチームメンバーの1人だけであるプロファイルのみを用いることで、そのような最適な分布を計算するアルゴリズムを提供する。
論文 参考訳(メタデータ) (2020-09-21T17:51:57Z) - Learning to Play Sequential Games versus Unknown Opponents [93.8672371143881]
学習者が最初にプレーするゲームと、選択した行動に反応する相手との連続的なゲームについて考察する。
対戦相手の対戦相手列と対戦する際,学習者に対して新しいアルゴリズムを提案する。
我々の結果には、相手の反応の正則性に依存するアルゴリズムの後悔の保証が含まれている。
論文 参考訳(メタデータ) (2020-07-10T09:33:05Z) - Optimally Deceiving a Learning Leader in Stackelberg Games [123.14187606686006]
MLコミュニティの最近の結果は、リーダーがStackelbergゲームでコミットする最適な戦略を計算するために使用される学習アルゴリズムが、フォロワーによる操作に影響を受けやすいことを明らかにしている。
本稿は、リーダーとフォロワー間の学習相互作用に関する様々なシナリオにおいて、フォロワーが(最適に近い)ペイオフを計算することは、常に可能であることを示す。
論文 参考訳(メタデータ) (2020-06-11T16:18:21Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。