論文の概要: Neural Networks for Chess
- arxiv url: http://arxiv.org/abs/2209.01506v1
- Date: Sat, 3 Sep 2022 22:17:16 GMT
- ステータス: 処理完了
- システム内更新日: 2022-09-07 12:45:40.229739
- Title: Neural Networks for Chess
- Title(参考訳): チェスのためのニューラルネットワーク
- Authors: Dominik Klein
- Abstract要約: AlphaZero、Leela Chess Zero、Stockfish NNUEはコンピュータチェスに革命をもたらした。
この本は、そのようなエンジンの技術的な内部動作について、完全な紹介を行っている。
- 参考スコア(独自算出の注目度): 2.055949720959582
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: AlphaZero, Leela Chess Zero and Stockfish NNUE revolutionized Computer Chess.
This book gives a complete introduction into the technical inner workings of
such engines. The book is split into four main chapters -- excluding chapter 1
(introduction) and chapter 6 (conclusion): Chapter 2 introduces neural networks
and covers all the basic building blocks that are used to build deep networks
such as those used by AlphaZero. Contents include the perceptron,
back-propagation and gradient descent, classification, regression, multilayer
perceptron, vectorization techniques, convolutional networks, squeeze and
excitation networks, fully connected networks, batch normalization and
rectified linear units, residual layers, overfitting and underfitting. Chapter
3 introduces classical search techniques used for chess engines as well as
those used by AlphaZero. Contents include minimax, alpha-beta search, and Monte
Carlo tree search. Chapter 4 shows how modern chess engines are designed. Aside
from the ground-breaking AlphaGo, AlphaGo Zero and AlphaZero we cover Leela
Chess Zero, Fat Fritz, Fat Fritz 2 and Efficiently Updatable Neural Networks
(NNUE) as well as Maia. Chapter 5 is about implementing a miniaturized
AlphaZero. Hexapawn, a minimalistic version of chess, is used as an example for
that. Hexapawn is solved by minimax search and training positions for
supervised learning are generated. Then as a comparison, an AlphaZero-like
training loop is implemented where training is done via self-play combined with
reinforcement learning. Finally, AlphaZero-like training and supervised
training are compared.
- Abstract(参考訳): AlphaZero、Leela Chess Zero、Stockfish NNUEはコンピュータチェスに革命をもたらした。
本書は、このようなエンジンの技術的な内部動作について、完全な紹介を行っている。
第1章(導入)と第6章(結論): 第2章ではニューラルネットワークを導入し、alphazeroが使用するようなディープネットワークを構築するために使用される、基本的な構成要素をすべてカバーしている。
内容は、パーセプトロン、バックプロパゲーションと勾配降下、分類、回帰、多層パーセプトロン、ベクトル化技術、畳み込みネットワーク、スクイーズと励磁ネットワーク、完全連結ネットワーク、バッチ正規化と整流線形単位、残留層、過剰フィッティングと過剰フィッティングである。
第3章では、AlphaZeroと同様にチェスエンジンに使われる古典的な探索技術を紹介している。
内容はminimax、alpha-beta search、monte carlo tree searchなど。
第4章は、現代のチェスエンジンの設計方法を示している。
AlphaGo、AlphaGo Zero、AlphaZero以外では、Leela Chess Zero、Fat Fritz、Fat Fritz 2、Efficiently Updatable Neural Networks (NNUE)、Maiaをカバーしています。
第5章は、小型のAlphaZeroの実装についてである。
ヘキサポーンはチェスのミニマリズム版であり、その一例として使われている。
極小探索によりヘキサポーンを解き、教師付き学習のための訓練位置を生成する。
次に、AlphaZeroのようなトレーニングループを実装し、自己学習と強化学習を組み合わせることでトレーニングを行う。
最後に、alphazeroライクなトレーニングと教師付きトレーニングを比較する。
関連論文リスト
- Enhancing Chess Reinforcement Learning with Graph Representation [21.919003715442074]
グラフニューラルネットワーク(GNN)に基づくより一般的なアーキテクチャを導入する。
この新しいアーキテクチャは、同じ数のパラメータで以前のアーキテクチャより優れていることを示す。
また、より小さな5倍のチェスでトレーニングすると、通常の8倍のチェスでプレイできるように素早く微調整できることも示しています。
論文 参考訳(メタデータ) (2024-10-31T09:18:47Z) - MiniZero: Comparative Analysis of AlphaZero and MuZero on Go, Othello, and Atari Games [9.339645051415115]
MiniZeroは、ゼロ知識学習フレームワークで、4つの最先端アルゴリズムをサポートする。
我々は,2つのボードゲーム,9x9 Go,8x8 Othello,57のAtariゲームにおいて,各アルゴリズムの性能を評価する。
論文 参考訳(メタデータ) (2023-10-17T14:29:25Z) - NASiam: Efficient Representation Learning using Neural Architecture
Search for Siamese Networks [76.8112416450677]
シームズネットワークは、自己教師付き視覚表現学習(SSL)を実現するための最も傾向のある方法の1つである。
NASiamは、初めて微分可能なNASを使用して、多層パーセプトロンプロジェクタと予測器(エンコーダ/予測器ペア)を改善する新しいアプローチである。
NASiamは、小規模(CIFAR-10/CIFAR-100)と大規模(画像Net)画像分類データセットの両方で競合性能を達成し、わずか数GPU時間しかかからない。
論文 参考訳(メタデータ) (2023-01-31T19:48:37Z) - Evaluation Beyond Task Performance: Analyzing Concepts in AlphaZero in
Hex [39.001544338346655]
我々は,HexゲームにおけるAlphaZeroの内部表現について,自然言語処理(NLP)による2つの評価手法を用いて検討する。
短期的なエンドゲーム計画に関する概念はモデルの最終層に最もよくエンコードされているのに対し、長期計画に関する概念はモデルの中層に最もよくエンコードされている。
論文 参考訳(メタデータ) (2022-11-26T21:59:11Z) - An AlphaZero-Inspired Approach to Solving Search Problems [63.24965775030674]
探索問題を解くためにAlphaZeroで使用される手法と手法を適応する。
本稿では,簡単な解法と自己還元という観点から表現できる可能性について述べる。
また,探索問題に適応したモンテカルロ木探索法についても述べる。
論文 参考訳(メタデータ) (2022-07-02T23:39:45Z) - Training Your Sparse Neural Network Better with Any Mask [106.134361318518]
高品質で独立したトレーニング可能なスパースマスクを作成するために、大規模なニューラルネットワークをプルーニングすることが望ましい。
本稿では、デフォルトの高密度ネットワークトレーニングプロトコルから逸脱するためにスパーストレーニングテクニックをカスタマイズできる別の機会を示す。
我々の新しいスパーストレーニングレシピは、スクラッチから様々なスパースマスクでトレーニングを改善するために一般的に適用されます。
論文 参考訳(メタデータ) (2022-06-26T00:37:33Z) - AlphaZero-Inspired General Board Game Learning and Playing [0.0]
最近、AlphaGoとAlphaZeroのアルゴリズムは、ゲーム学習と深層強化学習の新しい時代が始まった。
本稿では,AlphaZeroの重要な要素であるモンテカルロ木探索(MCTS)計画段階を選択し,それを強化学習(RL)エージェントと組み合わせる。
我々はこのアーキテクチャをいくつかの複雑なゲーム(Othello, ConnectFour, Rubik's Cube)に適用し、AlphaZeroにインスパイアされたMCTSラッパーの利点を示す。
論文 参考訳(メタデータ) (2022-04-28T07:04:14Z) - Acquisition of Chess Knowledge in AlphaZero [14.41428465712717]
人間の知識がAlphaZeroニューラルネットワークによって獲得され、チェスのゲームでトレーニングされることを示す。
これらの概念がAlphaZeroネットワークでいつ、どこで表現されているかを示す。
チェスのグランドマスターであるウラジーミル・クラムニクの質的分析を含む、オープニングプレイに焦点を当てた行動分析も提供する。
論文 参考訳(メタデータ) (2021-11-17T17:46:19Z) - Learning Compositional Neural Programs for Continuous Control [62.80551956557359]
スパース逆連続制御問題に対する新しい解法を提案する。
我々のソリューションはAlphaNPI-Xと呼ばれ、学習の3つの段階を含む。
我々はAlphaNPI-Xがスパース操作の課題に効果的に取り組むことを実証的に示す。
論文 参考訳(メタデータ) (2020-07-27T08:27:14Z) - AutoML-Zero: Evolving Machine Learning Algorithms From Scratch [76.83052807776276]
基本数学的操作をビルディングブロックとして使うだけで,完全な機械学習アルゴリズムを自動的に発見できることが示される。
汎用的な検索空間を通じて人間のバイアスを大幅に低減する新しいフレームワークを導入することでこれを実証する。
機械学習アルゴリズムをゼロから発見する上で、これらの予備的な成功は、この分野における有望な新しい方向性を示していると信じている。
論文 参考訳(メタデータ) (2020-03-06T19:00:04Z) - Backward Feature Correction: How Deep Learning Performs Deep
(Hierarchical) Learning [66.05472746340142]
本稿では,SGD による階層的学習 _efficiently_ と _automatically_ を学習目標として,多層ニューラルネットワークがどのように行うかを分析する。
我々は、下位機能のエラーを上位層と共にトレーニングする際に自動的に修正できる"後方特徴補正"と呼ばれる新しい原則を確立する。
論文 参考訳(メタデータ) (2020-01-13T17:28:29Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。