論文の概要: Representation Matters for Mastering Chess: Improved Feature Representation in AlphaZero Outperforms Switching to Transformers
- arxiv url: http://arxiv.org/abs/2304.14918v2
- Date: Tue, 20 Aug 2024 16:49:43 GMT
- ステータス: 処理完了
- システム内更新日: 2024-08-21 21:01:16.647932
- Title: Representation Matters for Mastering Chess: Improved Feature Representation in AlphaZero Outperforms Switching to Transformers
- Title(参考訳): チェス習得のための表現事項:AlphaZero出力からトランスフォーマーへの変換における特徴表現の改善
- Authors: Johannes Czech, Jannis Blüml, Kristian Kersting, Hedinn Steingrimsson,
- Abstract要約: ビジョントランスフォーマー(ViT)はチェスの習得には不十分である。
本稿では、入力表現と値損失関数の簡単な変更を含む実用的な改善を提案する。
その結果、チェスにおいて現在AlphaZeroで達成可能なものを超え、最大180エロポイントの大幅なパフォーマンス向上を実現した。
- 参考スコア(独自算出の注目度): 18.347534843178355
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: While transformers have gained recognition as a versatile tool for artificial intelligence (AI), an unexplored challenge arises in the context of chess - a classical AI benchmark. Here, incorporating Vision Transformers (ViTs) into AlphaZero is insufficient for chess mastery, mainly due to ViTs' computational limitations. The attempt to optimize their efficiency by combining MobileNet and NextViT outperformed AlphaZero by about 30 Elo. However, we propose a practical improvement that involves a simple change in the input representation and value loss functions. As a result, we achieve a significant performance boost of up to 180 Elo points beyond what is currently achievable with AlphaZero in chess. In addition to these improvements, our experimental results using the Integrated Gradient technique confirm the effectiveness of the newly introduced features.
- Abstract(参考訳): トランスフォーマーは人工知能(AI)の汎用ツールとして認識されているが、古典的なAIベンチマークであるチェスの文脈では、未解明の課題が発生する。
ここでは、視覚変換器(ViT)をAlphaZeroに組み込むことは、主にViTの計算制限のため、チェスの熟達には不十分である。
MobileNetとNextViTの組み合わせによる効率の最適化の試みは、AlphaZeroを約30Eloで上回った。
しかし、入力表現と値損失関数の簡単な変更を伴う実用的な改善を提案する。
その結果、チェスにおいて現在AlphaZeroで達成可能なものを超えて、最大180エロポイントの大幅なパフォーマンス向上を実現した。
これらの改善に加えて,新たに導入した機能の有効性を確認するため,Integrated Gradient法による実験結果を得た。
関連論文リスト
- Mastering Chess with a Transformer Model [0.0]
十分な表現力のある位置表現を付与したトランスフォーマーは,既存のチェス演奏モデルと計算コストのごく一部で一致できることを示す。
私たちのアーキテクチャはChessformerと呼ばれ、8倍少ない計算でAlphaZeroの演奏能力とパズル解決能力の両方で大幅に優れています。
論文 参考訳(メタデータ) (2024-09-18T19:05:21Z) - CAS-ViT: Convolutional Additive Self-attention Vision Transformers for Efficient Mobile Applications [59.193626019860226]
ビジョントランスフォーマー(ViT)は、トークンミキサーの強力なグローバルコンテキスト能力によって、ニューラルネットワークの革命的な進歩を示す。
CAS-ViT: Convolutional Additive Self-attention Vision Transformersを紹介する。
我々はCAS-ViTが他の最先端のバックボーンと比較して競争力を発揮することを示す。
論文 参考訳(メタデータ) (2024-08-07T11:33:46Z) - Transformers Can Do Arithmetic with the Right Embeddings [75.66545271398704]
算術演算における変換器の性能向上について述べる。
たった20桁の数値で1日1GPUでトレーニングすれば、最先端のパフォーマンスに到達できます。
これらの数的増加は、ソートや乗算を含む他の多段階の推論タスクの改善を解放する。
論文 参考訳(メタデータ) (2024-05-27T17:49:18Z) - EfficientZero V2: Mastering Discrete and Continuous Control with Limited Data [22.621203162457018]
本稿では,サンプル効率のよい強化学習(RL)アルゴリズム用に設計されたフレームワークであるEfficientZero V2を紹介する。
一連の改善により、EfficientZero V2は、様々なタスクにおいて、現在の最先端(SOTA)を上回っている。
効率的なZero V2は一般的なアルゴリズムであるDreamerV3よりも顕著な進歩を示し、66のタスクのうち50で優れた結果を得た。
論文 参考訳(メタデータ) (2024-03-01T14:42:25Z) - Amortized Planning with Large-Scale Transformers: A Case Study on Chess [11.227110138932442]
本稿では,AIにおける画期的な計画問題であるチェスを用いて,計画課題の性能評価を行う。
ChessBenchは、Stockfishが提供する法的行動と価値アノテーション(1500億ポイント)を備えた1000万のチェスゲームの大規模なベンチマークである。
極めて優れた近似を教師付き学習により大規模変圧器に蒸留することは可能であるが, 完全蒸留は依然として到達範囲を超えている。
論文 参考訳(メタデータ) (2024-02-07T00:36:24Z) - MiniZero: Comparative Analysis of AlphaZero and MuZero on Go, Othello, and Atari Games [9.339645051415115]
MiniZeroは、ゼロ知識学習フレームワークで、4つの最先端アルゴリズムをサポートする。
我々は,2つのボードゲーム,9x9 Go,8x8 Othello,57のAtariゲームにおいて,各アルゴリズムの性能を評価する。
論文 参考訳(メタデータ) (2023-10-17T14:29:25Z) - CageViT: Convolutional Activation Guided Efficient Vision Transformer [90.69578999760206]
本稿では,CageViTと呼ばれる効率的な視覚変換器を提案する。
私たちのCageViTは、現在のTransformersとは違って、新しいエンコーダを使用して、再配置されたトークンを処理する。
実験の結果,提案したCageViTは最新の最先端のバックボーンよりも効率の面で大きな差があることがわかった。
論文 参考訳(メタデータ) (2023-05-17T03:19:18Z) - Targeted Search Control in AlphaZero for Effective Policy Improvement [93.30151539224144]
我々はAlphaZeroの新しい検索制御戦略であるGo-Exploitを紹介する。
Go-Exploitは、関心のある状態のアーカイブからセルフプレイトラジェクトリの開始状態をサンプリングする。
Go-Exploitは、標準のAlphaZeroよりも優れたサンプル効率で学習する。
論文 参考訳(メタデータ) (2023-02-23T22:50:24Z) - Vision Transformer with Super Token Sampling [93.70963123497327]
多くの視覚タスクにおいて、視覚変換器は印象的なパフォーマンスを達成した。
浅い層のために局所的な特徴を捉える際に、高い冗長性に悩まされる可能性がある。
スーパートークンは、視覚的コンテンツの意味的に意味のあるテッセルレーションを提供しようとする。
論文 参考訳(メタデータ) (2022-11-21T03:48:13Z) - Mastering Atari Games with Limited Data [73.6189496825209]
我々は,MuZero上に構築したモデルベースビジュアルRLアルゴリズムのサンプルを提案し,これをEfficientZeroと呼ぶ。
提案手法は,Atari 100kベンチマークで平均190.4%の人的パフォーマンスを達成し,実戦経験は2時間に過ぎなかった。
アルゴリズムがそのような小さなデータでアタリゲーム上で超人的パフォーマンスを達成するのは、これが初めてである。
論文 参考訳(メタデータ) (2021-10-30T09:13:39Z) - LiveChess2FEN: a Framework for Classifying Chess Pieces based on CNNs [0.0]
我々は,1秒未満で画像からチェス位置を自動的にデジタル化する機能的フレームワークを実装した。
チェスの駒の分類と組込みプラットフォーム上で効率的にマップする方法について、さまざまな畳み込みニューラルネットワークを分析した。
論文 参考訳(メタデータ) (2020-12-12T16:48:40Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。