論文の概要: Octax: Accelerated CHIP-8 Arcade Environments for Reinforcement Learning in JAX
- arxiv url: http://arxiv.org/abs/2510.01764v2
- Date: Fri, 03 Oct 2025 06:51:40 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-06 12:05:48.075861
- Title: Octax: Accelerated CHIP-8 Arcade Environments for Reinforcement Learning in JAX
- Title(参考訳): Octax: JAX の強化学習のための Accelerated CHIP-8 アーケード環境
- Authors: Waris Radji, Thomas Michel, Hector Piteau,
- Abstract要約: 強化学習(Reinforcement Learning, RL)の研究には、多様で困難な環境が必要である。
JAXで実装された古典的なアーケードゲーム環境の高性能スイートであるOcaxを紹介します。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Reinforcement learning (RL) research requires diverse, challenging environments that are both tractable and scalable. While modern video games may offer rich dynamics, they are computationally expensive and poorly suited for large-scale experimentation due to their CPU-bound execution. We introduce Octax, a high-performance suite of classic arcade game environments implemented in JAX, based on CHIP-8 emulation, a predecessor to Atari, which is widely adopted as a benchmark in RL research. Octax provides the JAX community with a long-awaited end-to-end GPU alternative to the Atari benchmark, offering image-based environments, spanning puzzle, action, and strategy genres, all executable at massive scale on modern GPUs. Our JAX-based implementation achieves orders-of-magnitude speedups over traditional CPU emulators while maintaining perfect fidelity to the original game mechanics. We demonstrate Octax's capabilities by training RL agents across multiple games, showing significant improvements in training speed and scalability compared to existing solutions. The environment's modular design enables researchers to easily extend the suite with new games or generate novel environments using large language models, making it an ideal platform for large-scale RL experimentation.
- Abstract(参考訳): 強化学習(Reinforcement Learning, RL)の研究には、多様で困難な環境が必要である。
現代のビデオゲームはリッチなダイナミクスを提供するが、計算コストが高く、CPUバウンド実行のため大規模な実験には適していない。
JAX で実装された古典的アーケードゲーム環境の高性能スイートである Octax を紹介し,Atari の前身である CHIP-8 エミュレーションをベースとして,RL 研究のベンチマークとして広く採用されている。
OctaxはAtariベンチマークに代わる待望のエンドツーエンドGPUを提供し、画像ベースの環境、パズル、アクション、戦略のジャンルを提供する。
JAXベースの実装は、従来のCPUエミュレータを超越したオーダー・オブ・マグニチュード・スピードアップを実現します。
複数のゲーム間でRLエージェントをトレーニングすることでOcaxの能力を実証し、既存のソリューションに比べてトレーニング速度とスケーラビリティが大幅に向上したことを示す。
環境のモジュラー設計により、研究者は新しいゲームで簡単にスイートを拡張したり、大きな言語モデルを使って新しい環境を生成することができ、大規模なRL実験のための理想的なプラットフォームとなる。
関連論文リスト
- JaxMARL: Multi-Agent RL Environments and Algorithms in JAX [105.343918678781]
我々は、GPU対応の効率と多くの一般的なMARL環境のサポートを組み合わせた、最初のオープンソースPythonベースのライブラリであるJaxMARLを紹介します。
我々の実験は、壁時計時間の観点から、JAXベースのトレーニングパイプラインが既存のアプローチの約14倍高速であることを示している。
また、人気の高いStarCraft Multi-Agent ChallengeのJAXベースの近似的な再実装であるSMAXを紹介し、ベンチマークする。
論文 参考訳(メタデータ) (2023-11-16T18:58:43Z) - Pgx: Hardware-Accelerated Parallel Game Simulators for Reinforcement
Learning [0.6670498055582528]
Pgxは、JAXで書かれたボードゲーム強化学習(RL)環境のスイートで、GPU/TPUアクセラレータ向けに最適化されている。
PgxはPythonの既存の実装よりも10~100倍高速にRL環境をシミュレートできる。
Pgxには、バックギャモン、チェス、ショギ、GoといったRL研究のベンチマークとして一般的に使用されるRL環境が含まれている。
論文 参考訳(メタデータ) (2023-03-29T02:41:23Z) - Cramming: Training a Language Model on a Single GPU in One Day [64.18297923419627]
言語モデリングの最近のトレンドは、スケーリングによるパフォーマンス向上に焦点を当てている。
我々は,1つのコンシューマGPU上で1日間,マスク付き言語モデルを用いてゼロから完全に訓練されたトランスフォーマーベース言語モデルで達成可能なダウンストリーム性能について検討した。
この制約された設定であっても、大規模設定で観測されるスケーリングの法則に密接に従う性能を示す。
論文 参考訳(メタデータ) (2022-12-28T18:59:28Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。