論文の概要: Representation Matters: The Game of Chess Poses a Challenge to Vision
Transformers
- arxiv url: http://arxiv.org/abs/2304.14918v1
- Date: Fri, 28 Apr 2023 15:33:39 GMT
- ステータス: 処理完了
- システム内更新日: 2023-05-01 13:40:47.712402
- Title: Representation Matters: The Game of Chess Poses a Challenge to Vision
Transformers
- Title(参考訳): 表象問題:チェスのゲームは視覚トランスフォーマーに挑戦する
- Authors: Johannes Czech, Jannis Bl\"uml, Kristian Kersting
- Abstract要約: AlphaZeroで視覚変換器(ViT)を使用すると、主にViTが遅すぎるためチェスのゲームを習得できない。
入力表現と値損失の単純な変更により、AlphaZero上で最大180個のEloポイントが増大する。
- 参考スコア(独自算出の注目度): 16.421253324649555
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: While transformers have gained the reputation as the "Swiss army knife of
AI", no one has challenged them to master the game of chess, one of the
classical AI benchmarks. Simply using vision transformers (ViTs) within
AlphaZero does not master the game of chess, mainly because ViTs are too slow.
Even making them more efficient using a combination of MobileNet and NextViT
does not beat what actually matters: a simple change of the input
representation and value loss, resulting in a greater boost of up to 180 Elo
points over AlphaZero.
- Abstract(参考訳): トランスフォーマーは "Swiss Army knife of AI" という評判を得たが、古典的なAIベンチマークのひとつであるチェスのゲームを習得するために、誰も挑戦しなかった。
AlphaZeroでの視覚変換器(ViT)の使用は、主にViTが遅すぎるため、チェスのゲームをマスターしない。
MobileNetとNextViTの組み合わせを使って、より効率的にすることでさえ、実際には何よりも優れている。入力表現の単純な変更と値損失により、AlphaZeroよりも最大180Eloポイントが向上する。
関連論文リスト
- Mastering Chess with a Transformer Model [0.0]
十分な表現力のある位置表現を付与したトランスフォーマーは,既存のチェス演奏モデルと計算コストのごく一部で一致できることを示す。
私たちのアーキテクチャはChessformerと呼ばれ、8倍少ない計算でAlphaZeroの演奏能力とパズル解決能力の両方で大幅に優れています。
論文 参考訳(メタデータ) (2024-09-18T19:05:21Z) - CAS-ViT: Convolutional Additive Self-attention Vision Transformers for Efficient Mobile Applications [59.193626019860226]
ビジョントランスフォーマー(ViT)は、トークンミキサーの強力なグローバルコンテキスト能力によって、ニューラルネットワークの革命的な進歩を示す。
CAS-ViT: Convolutional Additive Self-attention Vision Transformersを紹介する。
我々はCAS-ViTが他の最先端のバックボーンと比較して競争力を発揮することを示す。
論文 参考訳(メタデータ) (2024-08-07T11:33:46Z) - Transformers Can Do Arithmetic with the Right Embeddings [75.66545271398704]
算術演算における変換器の性能向上について述べる。
たった20桁の数値で1日1GPUでトレーニングすれば、最先端のパフォーマンスに到達できます。
これらの数的増加は、ソートや乗算を含む他の多段階の推論タスクの改善を解放する。
論文 参考訳(メタデータ) (2024-05-27T17:49:18Z) - EfficientZero V2: Mastering Discrete and Continuous Control with Limited Data [22.621203162457018]
本稿では,サンプル効率のよい強化学習(RL)アルゴリズム用に設計されたフレームワークであるEfficientZero V2を紹介する。
一連の改善により、EfficientZero V2は、様々なタスクにおいて、現在の最先端(SOTA)を上回っている。
効率的なZero V2は一般的なアルゴリズムであるDreamerV3よりも顕著な進歩を示し、66のタスクのうち50で優れた結果を得た。
論文 参考訳(メタデータ) (2024-03-01T14:42:25Z) - Amortized Planning with Large-Scale Transformers: A Case Study on Chess [11.227110138932442]
本稿では,AIにおける画期的な計画問題であるチェスを用いて,計画課題の性能評価を行う。
ChessBenchは、Stockfishが提供する法的行動と価値アノテーション(1500億ポイント)を備えた1000万のチェスゲームの大規模なベンチマークである。
極めて優れた近似を教師付き学習により大規模変圧器に蒸留することは可能であるが, 完全蒸留は依然として到達範囲を超えている。
論文 参考訳(メタデータ) (2024-02-07T00:36:24Z) - MiniZero: Comparative Analysis of AlphaZero and MuZero on Go, Othello, and Atari Games [9.339645051415115]
MiniZeroは、ゼロ知識学習フレームワークで、4つの最先端アルゴリズムをサポートする。
我々は,2つのボードゲーム,9x9 Go,8x8 Othello,57のAtariゲームにおいて,各アルゴリズムの性能を評価する。
論文 参考訳(メタデータ) (2023-10-17T14:29:25Z) - CageViT: Convolutional Activation Guided Efficient Vision Transformer [90.69578999760206]
本稿では,CageViTと呼ばれる効率的な視覚変換器を提案する。
私たちのCageViTは、現在のTransformersとは違って、新しいエンコーダを使用して、再配置されたトークンを処理する。
実験の結果,提案したCageViTは最新の最先端のバックボーンよりも効率の面で大きな差があることがわかった。
論文 参考訳(メタデータ) (2023-05-17T03:19:18Z) - Targeted Search Control in AlphaZero for Effective Policy Improvement [93.30151539224144]
我々はAlphaZeroの新しい検索制御戦略であるGo-Exploitを紹介する。
Go-Exploitは、関心のある状態のアーカイブからセルフプレイトラジェクトリの開始状態をサンプリングする。
Go-Exploitは、標準のAlphaZeroよりも優れたサンプル効率で学習する。
論文 参考訳(メタデータ) (2023-02-23T22:50:24Z) - Vision Transformer with Super Token Sampling [93.70963123497327]
多くの視覚タスクにおいて、視覚変換器は印象的なパフォーマンスを達成した。
浅い層のために局所的な特徴を捉える際に、高い冗長性に悩まされる可能性がある。
スーパートークンは、視覚的コンテンツの意味的に意味のあるテッセルレーションを提供しようとする。
論文 参考訳(メタデータ) (2022-11-21T03:48:13Z) - Mastering Atari Games with Limited Data [73.6189496825209]
我々は,MuZero上に構築したモデルベースビジュアルRLアルゴリズムのサンプルを提案し,これをEfficientZeroと呼ぶ。
提案手法は,Atari 100kベンチマークで平均190.4%の人的パフォーマンスを達成し,実戦経験は2時間に過ぎなかった。
アルゴリズムがそのような小さなデータでアタリゲーム上で超人的パフォーマンスを達成するのは、これが初めてである。
論文 参考訳(メタデータ) (2021-10-30T09:13:39Z) - LiveChess2FEN: a Framework for Classifying Chess Pieces based on CNNs [0.0]
我々は,1秒未満で画像からチェス位置を自動的にデジタル化する機能的フレームワークを実装した。
チェスの駒の分類と組込みプラットフォーム上で効率的にマップする方法について、さまざまな畳み込みニューラルネットワークを分析した。
論文 参考訳(メタデータ) (2020-12-12T16:48:40Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。