論文の概要: Othello is Solved
- arxiv url: http://arxiv.org/abs/2310.19387v3
- Date: Tue, 2 Jan 2024 19:52:37 GMT
- ステータス: 処理完了
- システム内更新日: 2024-01-04 16:35:24.126220
- Title: Othello is Solved
- Title(参考訳): オセロは解決した
- Authors: Hiroki Takizawa
- Abstract要約: オセロは世界で最も複雑で人気のあるゲームの一つである。
約10オクテデシリオン(10から58番目のパワー)のゲーム記録と10オクティリオン(10から28番目のパワー)のゲームポジションを持つ。
Othelloは現在解決されている。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The game of Othello is one of the world's most complex and popular games that
has yet to be computationally solved. Othello has roughly ten octodecillion (10
to the 58th power) possible game records and ten octillion (10 to the 28th
power) possible game positions. The challenge of solving Othello, determining
the outcome of a game with no mistake made by either player, has long been a
grand challenge in computer science. This paper announces a significant
milestone: Othello is now solved. It is computationally proved that perfect
play by both players lead to a draw. Strong Othello software has long been
built using heuristically designed search techniques. Solving a game provides a
solution that enables the software to play the game perfectly.
- Abstract(参考訳): オセロのゲームは世界で最も複雑で人気のあるゲームの1つであり、まだ計算学的に解決されていない。
オセロは、およそ10オクテデシリオン(10から58のパワー)のゲーム記録と10オクテリオン(10から28のパワー)のゲームポジションを持っている。
オセロを解くという課題は、どちらのプレイヤーもミスを起こさずにゲームの結果を決定することであり、長い間コンピュータ科学における大きな挑戦であった。
本稿では、othelloが解決されたという重要なマイルストーンを発表します。
両プレイヤーの完全なプレーが引き分けにつながることは計算的に証明されている。
強力なothelloソフトウェアは、ヒューリスティックに設計された検索技術を使って長い間構築されてきた。
ゲームの解決は、ソフトウェアがゲームを完璧にプレイできるソリューションを提供する。
関連論文リスト
- Solving 7x7 Killall-Go with Seki Database [15.829278142585142]
本稿では,7x7 Killall-Goの検索スペースを大幅に削減する手法に焦点を当てた。
囲碁やキラルゴーでは、ライブ・パターンは相手の捕獲から保護される石である。
本稿では,すべての図柄を所定面積まで列挙し,その図柄を石テーブルに格納する。
論文 参考訳(メタデータ) (2024-11-08T13:40:36Z) - Semi-Strongly solved: a New Definition Leading Computer to Perfect Gameplay [0.0]
「ゲーム解決のための定義はいくつかあるが、計算コストと導出した洞察の詳細については明らかに異なる。」
半強解」と呼ばれる新しい定義を導入し、このタイプの解を効率的に実現するためのアルゴリズムを提案する。
論文 参考訳(メタデータ) (2024-11-01T21:00:46Z) - People use fast, goal-directed simulation to reason about novel games [75.25089384921557]
我々は,シンプルだが斬新なコネクテッドnスタイルのボードゲームについて,人々がどう考えるかを研究する。
ゲームがどんなに公平か、そしてどんなに楽しいのかを、ごくわずかな経験から判断するよう、私たちは人々に求めます。
論文 参考訳(メタデータ) (2024-07-19T07:59:04Z) - Game Solving with Online Fine-Tuning [17.614045403579244]
本稿では,探索中のオンラインファインチューニングの適用について検討し,ゲーム問題解決のための最適設計計算を学習するための2つの方法を提案する。
実験の結果,オンラインファインチューニングを用いることで,ベースラインに比べて23.54%の時間しか利用できない7x7 Killall-Goの課題が解決できることがわかった。
論文 参考訳(メタデータ) (2023-11-13T09:09:52Z) - Are AlphaZero-like Agents Robust to Adversarial Perturbations? [73.13944217915089]
AlphaZero(AZ)は、ニューラルネットワークベースのGo AIが人間のパフォーマンスを大きく上回ることを示した。
私たちは、Go AIが驚くほど間違った行動を起こさせる可能性のある、敵対的な状態が存在するかどうか尋ねる。
我々は、Go AIに対する最初の敵攻撃を開発し、探索空間を戦略的に減らし、効率よく敵の状態を探索する。
論文 参考訳(メタデータ) (2022-11-07T18:43:25Z) - Turning Mathematics Problems into Games: Reinforcement Learning and
Gr\"obner bases together solve Integer Feasibility Problems [4.746723775952672]
我々は、線形方程式と不等式の系が整数値の解を持つかどうかを判定する問題である整数実現可能性問題を考察する。
本稿では,エージェントが整数実現可能性問題と同等のゲームをすることができる,新しい代数的強化学習フレームワークについて述べる。
概念実証として、エージェントが2方向テーブルの最も単純なバージョンをうまくプレイできることを実験で実証する。
論文 参考訳(メタデータ) (2022-08-25T16:24:34Z) - An AlphaZero-Inspired Approach to Solving Search Problems [63.24965775030674]
探索問題を解くためにAlphaZeroで使用される手法と手法を適応する。
本稿では,簡単な解法と自己還元という観点から表現できる可能性について述べる。
また,探索問題に適応したモンテカルロ木探索法についても述べる。
論文 参考訳(メタデータ) (2022-07-02T23:39:45Z) - Mastering the Game of Stratego with Model-Free Multiagent Reinforcement
Learning [86.37438204416435]
Strategoは、人工知能(AI)がまだマスターしていない数少ない象徴的なボードゲームの一つだ。
ストラテゴにおける決定は、行動と結果の間に明らかな結びつきがなく、多数の個別の行動に対してなされる。
DeepNashは、ストラテゴの既存の最先端AIメソッドを破り、Gravonゲームプラットフォームで年間(2022年)と最高3位を達成した。
論文 参考訳(メタデータ) (2022-06-30T15:53:19Z) - Final Adaptation Reinforcement Learning for N-Player Games [0.0]
本稿では,n-tuple-based reinforcement learning (RL)アルゴリズムについて述べる。
本稿では,TD-,SARSA-およびQ-ラーニングのための新しいアルゴリズムを提案する。
これらのアルゴリズムにFinal Adaptation RL(FARL)と呼ばれる新しい要素を追加します。
論文 参考訳(メタデータ) (2021-11-29T08:36:39Z) - Generating Diverse and Competitive Play-Styles for Strategy Games [58.896302717975445]
ターン型戦略ゲーム(Tribes)のためのプログレッシブアンプランによるPortfolio Monte Carlo Tree Searchを提案する。
品質分散アルゴリズム(MAP-Elites)を使用して異なるプレイスタイルを実現し、競争レベルを維持しながらパラメータ化する方法を示します。
その結果,このアルゴリズムは,トレーニングに用いるレベルを超えて,幅広いゲームレベルにおいても,これらの目標を達成できることが示された。
論文 参考訳(メタデータ) (2021-04-17T20:33:24Z) - Suphx: Mastering Mahjong with Deep Reinforcement Learning [114.68233321904623]
我々は、新たに導入されたいくつかの技術を用いた深層強化学習に基づいて、Suphxという名のマフジョンのためのAIを設計する。
Suphxは、安定したランクの点で、ほとんどのトップの人間プレイヤーよりも強いパフォーマンスを示している。
コンピュータプログラムがマヒョンで最上位の人間プレイヤーを上回るのは、これが初めてである。
論文 参考訳(メタデータ) (2020-03-30T16:18:16Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。