論文の概要: Magic: the Gathering is as Hard as Arithmetic
- arxiv url: http://arxiv.org/abs/2003.05119v1
- Date: Wed, 11 Mar 2020 05:42:28 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-24 15:45:15.164108
- Title: Magic: the Gathering is as Hard as Arithmetic
- Title(参考訳): Magic: Gatheringは算術的にも難しい
- Authors: Stella Biderman
- Abstract要約: 2人プレイのマジックにおける最適プレイは一般に非算術的であることを示す。
われわれの論文は、チャーチル、ビダーマン、ヘリックが、この問題が情報を止めるのと同じくらい難しいことを示していたことを裏付けている。
- 参考スコア(独自算出の注目度): 2.1052208471699423
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Magic: the Gathering is a popular and famously complicated card game about
magical combat. Recently, several authors including Chatterjee and Ibsen-Jensen
(2016) and Churchill, Biderman, and Herrick (2019) have investigated the
computational complexity of playing Magic optimally. In this paper we show that
the ``mate-in-$n$'' problem for Magic is $\Delta^0_n$-hard and that optimal
play in two-player Magic is non-arithmetic in general. These results apply to
how real Magic is played, can be achieved using standard-size tournament legal
decks, and do not rely on stochasticity or hidden information. Our paper builds
upon the construction that Churchill, Biderman, and Herrick (2019) used to show
that this problem was at least as hard as the halting problem.
- Abstract(参考訳): マジック:ザ・ギャザリング』(Magic: the Gathering)は、魔法の戦闘に関するカードゲーム。
近年,chatterjee や ibsen-jensen (2016) や churchill, biderman, herrick (2019) といった著者が,魔法を最適に演奏する計算の複雑さを調査している。
本稿では,マジックの`mate-in-$n$''問題は$\Delta^0_n$-hardであり,マジックの最適プレイは一般に非算術的であることを示す。
これらの結果は、マジックの実際の演奏方法に適用され、標準サイズのトーナメントの法的デッキを使用して達成でき、確率性や隠された情報に依存しない。
私たちの論文は、チャーチル、ビダーマン、ヘリック(2019年)が、この問題が停止問題と同じくらい難しいことを証明した構築の上に構築されています。
関連論文リスト
- People use fast, goal-directed simulation to reason about novel games [75.25089384921557]
我々は,シンプルだが斬新なコネクテッドnスタイルのボードゲームについて,人々がどう考えるかを研究する。
ゲームがどんなに公平か、そしてどんなに楽しいのかを、ごくわずかな経験から判断するよう、私たちは人々に求めます。
論文 参考訳(メタデータ) (2024-07-19T07:59:04Z) - Learning to Beat ByteRL: Exploitability of Collectible Card Game Agents [3.5036467860577307]
本稿では,コードとマジックとヘースストーンの最先端エージェントであるByteRLの予備解析結果について述べる。
ByteRLは中国からトップ10のHarthstoneプレーヤーを打ち負かしているが、Legends of Code and Magicでのプレイは極めて悪用されている。
論文 参考訳(メタデータ) (2024-04-25T15:48:40Z) - WizardMath: Empowering Mathematical Reasoning for Large Language Models
via Reinforced Evol-Instruct [128.89645483139236]
本稿では,Llama-2の数学的推論能力を向上するWizardMathを提案する。
GSM8kではChatGPT-3.5, Claude Instant-1, PaLM-2, Minervaを上回り, 同時にMATHでは Text-davinci, PaLM-1, GPT-3 を上回ります。
論文 参考訳(メタデータ) (2023-08-18T14:23:21Z) - Regret Matching+: (In)Stability and Fast Convergence in Games [68.13214224119024]
RM+とその予測バージョンは不安定であり,他のプレイヤーが大きな後悔を味わう可能性がある。
これらの修正は、RM+による通常のゲームにおいて、個々の後悔に対して$O(T1/4)$$と$O(1)$の社会的後悔を得るのに十分であることを示す。
論文 参考訳(メタデータ) (2023-05-24T04:26:21Z) - Mastering Strategy Card Game (Hearthstone) with Improved Techniques [8.399453146308502]
戦略カードゲームはインテリジェントなゲームプレイを必要としており、AIにとって理想的なテストベンチになり得る。
これまでの仕事は、エンドツーエンドのポリシー機能と楽観的なスムーズな架空の遊びを組み合わせたものだった。
本研究では,ゲームルールや機構が複雑である有名な商用ゲームであるHerthstoneに対して,そのようなアルゴリズムを適用する。
論文 参考訳(メタデータ) (2023-03-09T11:52:52Z) - Mastering Strategy Card Game (Legends of Code and Magic) via End-to-End
Policy and Optimistic Smooth Fictitious Play [11.480308614644041]
我々は、2段階の戦略カードゲーム「Regends of Code and Magic」を研究する。
マルチステージゲームにおける難題を解決するために,エンド・ツー・エンドのポリシーを提案する。
私たちのアプローチはCOG2022コンペティションの2連覇です。
論文 参考訳(メタデータ) (2023-03-07T17:55:28Z) - Quantum advantage through the magic pentagram problem [3.1161346038764526]
この問題は$mathbfQNC0$の回路で解けるが、$mathbfNC0$の回路では解けない。
論文 参考訳(メタデータ) (2022-09-30T02:29:28Z) - Mastering the Game of Stratego with Model-Free Multiagent Reinforcement
Learning [86.37438204416435]
Strategoは、人工知能(AI)がまだマスターしていない数少ない象徴的なボードゲームの一つだ。
ストラテゴにおける決定は、行動と結果の間に明らかな結びつきがなく、多数の個別の行動に対してなされる。
DeepNashは、ストラテゴの既存の最先端AIメソッドを破り、Gravonゲームプラットフォームで年間(2022年)と最高3位を達成した。
論文 参考訳(メタデータ) (2022-06-30T15:53:19Z) - Generating Diverse and Competitive Play-Styles for Strategy Games [58.896302717975445]
ターン型戦略ゲーム(Tribes)のためのプログレッシブアンプランによるPortfolio Monte Carlo Tree Searchを提案する。
品質分散アルゴリズム(MAP-Elites)を使用して異なるプレイスタイルを実現し、競争レベルを維持しながらパラメータ化する方法を示します。
その結果,このアルゴリズムは,トレーニングに用いるレベルを超えて,幅広いゲームレベルにおいても,これらの目標を達成できることが示された。
論文 参考訳(メタデータ) (2021-04-17T20:33:24Z) - Many-body quantum magic [0.609170287691728]
我々は、$n$-qubit状態の最大マジックが本質的に$n$であり、同時に様々な「良い」マジック測度を示すことを示した。
魔法が理解できる高度に絡み合った状態の明示的でスケーラブルなケースを求める中で、ハイパーグラフ状態のマジックと基礎となるブール関数の2階非線形性とを結びつける。
約$n$の量子状態、または実際にはほぼすべての状態は、古典的なコンピュータに非自明なスピードアップを供給できないことを示す。
論文 参考訳(メタデータ) (2020-10-26T18:06:45Z) - Efficient exploration of zero-sum stochastic games [83.28949556413717]
ゲームプレイを通じて,ゲームの記述を明示せず,託宣のみにアクセス可能な,重要で一般的なゲーム解決環境について検討する。
限られたデュレーション学習フェーズにおいて、アルゴリズムは両方のプレイヤーのアクションを制御し、ゲームを学習し、それをうまくプレイする方法を学習する。
私たちのモチベーションは、クエリされた戦略プロファイルの支払いを評価するのにコストがかかる状況において、利用可能性の低い戦略を迅速に学習することにあります。
論文 参考訳(メタデータ) (2020-02-24T20:30:38Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。