論文の概要: GPU-Accelerated Counterfactual Regret Minimization
- arxiv url: http://arxiv.org/abs/2408.14778v2
- Date: Sat, 7 Sep 2024 03:52:55 GMT
- ステータス: 処理完了
- システム内更新日: 2024-09-10 23:12:22.495327
- Title: GPU-Accelerated Counterfactual Regret Minimization
- Title(参考訳): GPUによる反ファクトレグレスト最小化
- Authors: Juho Kim,
- Abstract要約: 反実的後悔は、大規模な不完全な情報ゲームを解くことができる非回帰学習力学のアルゴリズムのファミリーである。
本稿では,このアルゴリズムを高密度かつスパースな行列およびベクトル演算系として実装し,グラフィカル処理ユニットに対して高い並列化を実現することを提案する。
- 参考スコア(独自算出の注目度): 40.39759037668144
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Counterfactual regret minimization is a family of algorithms of no-regret learning dynamics capable of solving large-scale imperfect information games. We propose implementing this algorithm as a series of dense and sparse matrix and vector operations, thereby making it highly parallelizable for a graphical processing unit, at a cost of higher memory usages. Our experiments show that our implementation performs up to about 352.5 times faster than OpenSpiel's Python implementation and up to about 22.2 times faster than OpenSpiel's C++ implementation and the speedup becomes more pronounced as the size of the game being solved grows.
- Abstract(参考訳): 反実的後悔の最小化(英: Counterfactual regret minimization)は、大規模な不完全な情報ゲームを解くことができる非回帰学習力学のアルゴリズム群である。
そこで我々は,このアルゴリズムを,高メモリ使用量でグラフィカル処理ユニットに対して高い並列化を実現するために,高密度でスパースな行列およびベクトル演算系として実装することを提案する。
実験の結果、我々の実装はOpenSpielのPython実装よりも352.5倍高速で、OpenSpielのC++実装より22.2倍高速で、解決されるゲームのサイズが大きくなるにつれてスピードアップがより顕著になることがわかった。
関連論文リスト
- Playing Large Games with Oracles and AI Debate [27.355621483737913]
既存のオンラインゲームプレイのアルゴリズムでは、アクションの回数のイテレーションが要求されるため、大規模なゲームでは禁止される可能性がある。
動作数を対数的に依存する外部と内部の後悔の最小化を同時に行うための,新しい効率的なアルゴリズムを提案する。
論文 参考訳(メタデータ) (2023-12-08T02:06:55Z) - A Generalized Extensive-Form Fictitious Play Algorithm [0.0]
両プレイヤー・ゼロサムゲームの平衡を求めるための単純な拡張形式アルゴリズムを提案する。
我々は,その性能を,類似の広義の虚偽プレイアルゴリズムと反実的後悔最小化アルゴリズムとを比較した。
論文 参考訳(メタデータ) (2023-10-14T20:18:49Z) - The Update-Equivalence Framework for Decision-Time Planning [78.44953498421854]
本稿では,サブゲームの解決ではなく,更新等価性に基づく意思決定時計画のための代替フレームワークを提案する。
ミラー降下に基づく完全協調型ゲームに対する有効音声探索アルゴリズムと、磁気ミラー降下に基づく対戦型ゲームに対する探索アルゴリズムを導出する。
論文 参考訳(メタデータ) (2023-04-25T20:28:55Z) - Strategizing against Learners in Bayesian Games [74.46970859427907]
プレイヤーの1人である学習者が無学習の学習戦略を採用する2人プレイヤゲームについて検討した。
一般のベイズゲームでは,学習者と学習者の双方の報酬の支払いが,そのタイプに依存する可能性がある。
論文 参考訳(メタデータ) (2022-05-17T18:10:25Z) - GPU-accelerated Faster Mean Shift with euclidean distance metrics [1.3507758562554621]
平均シフトアルゴリズムはクラスタリング問題の解法として広く用いられている。
従来の研究では,GPUを高速化する高速平均シフトアルゴリズムが提案されている。
本研究では,ユークリッド距離測定値を扱うために,従来のアルゴリズムを拡張し改良する。
論文 参考訳(メタデータ) (2021-12-27T20:18:24Z) - Last-iterate Convergence in Extensive-Form Games [49.31256241275577]
逐次ゲームにおける楽観的アルゴリズムの最後の点収束について検討する。
これらのアルゴリズムはいずれも最終点収束を楽しみ、そのいくつかは指数関数的に高速に収束する。
論文 参考訳(メタデータ) (2021-06-27T22:02:26Z) - Nimble: Lightweight and Parallel GPU Task Scheduling for Deep Learning [7.43260596107574]
我々は、最小のスケジューリングオーバーヘッドでタスクを並列に実行する、ディープラーニング(DL)実行エンジンであるNimbleを提案する。
Nableは、単一のGPUで複数のGPUストリームを活用することで、GPUタスクの実行を自動的に並列化する。
PyTorchと比較して、Nimbleは推論とトレーニングを最大22.34$times$と3.61$times$で高速化している。
論文 参考訳(メタデータ) (2020-12-04T17:25:46Z) - GPU-Accelerated Primal Learning for Extremely Fast Large-Scale
Classification [10.66048003460524]
ロジスティック回帰や線形サポートベクターマシン(SVM)分類などのL2正規化原始問題を解く最も効率的な方法の1つは、広く使われている信頼領域ニュートンアルゴリズムであるTRONである。
我々は、GPU最適化の法則を用いて、異なる損失と特徴表現に対するTRONトレーニング時間を劇的に短縮できることを示した。
論文 参考訳(メタデータ) (2020-08-08T03:40:27Z) - Kernel methods through the roof: handling billions of points efficiently [94.31450736250918]
カーネル法は、非パラメトリック学習に対するエレガントで原則化されたアプローチを提供するが、今のところ大規模な問題ではほとんど利用できない。
最近の進歩は、最適化、数値線形代数、ランダム射影など、多くのアルゴリズム的アイデアの利点を示している。
ここでは、これらの取り組みをさらに進めて、GPUハードウェアを最大限に活用する解決器を開発し、テストする。
論文 参考訳(メタデータ) (2020-06-18T08:16:25Z) - Sparsified Linear Programming for Zero-Sum Equilibrium Finding [89.30539368124025]
我々は、この問題に対して全く異なるアプローチを示し、それは競争力があり、しばしば、以前の最先端技術よりも桁違いに優れている。
ポーカーエンドゲームの実験により、現代の線形プログラムソルバは、ゲーム固有のCFRの現代的な変種でさえも競合することを示した。
論文 参考訳(メタデータ) (2020-06-05T13:48:26Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。