論文の概要: POPGym Arcade: Parallel Pixelated POMDPs
- arxiv url: http://arxiv.org/abs/2503.01450v2
- Date: Tue, 04 Mar 2025 05:23:52 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-03-05 19:21:20.333302
- Title: POPGym Arcade: Parallel Pixelated POMDPs
- Title(参考訳): POPGym Arcade:Parallel Pixelated POMDPs
- Authors: Zekang Wang, Zhe He, Edan Toledo, Steven Morad,
- Abstract要約: POPGym Arcadeは7つのピクセルベースの環境と3つの困難からなるベンチマークである。
ハードウェアアクセラレータ上のJITコンパイルは、CPUバウンド環境上で大幅にスピードアップする。
メモリサリエンシマップを生成し、ポリシーを通じてメモリがどのように伝播するかを明らかにする。
- 参考スコア(独自算出の注目度): 0.9937132009954994
- License:
- Abstract: We introduce POPGym Arcade, a benchmark consisting of 7 pixel-based environments each with three difficulties, utilizing a single observation and action space. Each environment offers both fully observable and partially observable variants, enabling counterfactual studies on partial observability. POPGym Arcade utilizes JIT compilation on hardware accelerators to achieve substantial speedups over CPU-bound environments. Moreover, this enables Podracer-style architectures to further increase hardware utilization and training speed. We evaluate memory models on our environments using a Podracer variant of Q learning, and examine the results. Finally, we generate memory saliency maps, uncovering how memories propagate through policies. Our library is available at https://github.com/bolt-research/popgym_arcade.
- Abstract(参考訳): PPGym Arcadeは、7つのピクセルベースの環境をそれぞれ3つの困難を持つベンチマークで、単一の観測空間とアクション空間を利用する。
各環境は、完全に観測可能かつ部分的に観測可能であり、部分観測可能性に関する反実的な研究を可能にする。
POPGym Arcadeは、ハードウェアアクセラレータ上でJITコンパイルを使用して、CPUバウンド環境上での大幅なスピードアップを実現している。
さらに、Podracerスタイルのアーキテクチャにより、ハードウェア使用率とトレーニング速度をさらに向上させることができる。
我々は,QラーニングのPodracer変種を用いて,環境上でのメモリモデルの評価を行い,その結果について検討した。
最後に、我々は、ポリシーを通じてどのように記憶が伝播するかを明らかにすることで、メモリサリエンシマップを生成する。
私たちのライブラリはhttps://github.com/bolt-research/popgym_arcade.comで利用可能です。
関連論文リスト
- Towards Real-Time Open-Vocabulary Video Instance Segmentation [88.04508795121681]
オープン語彙ビデオインスタンス分割(OV-VIS)をリアルタイムに実行するための新しい手法を提案する。
TROY-VISは2つの大規模OV-VISベンチマークで精度と速度の最良のトレードオフを達成する。
これらの結果は,モバイルロボティクスや拡張現実といった動的環境におけるTROY-VISのリアルタイム応用の可能性を示している。
論文 参考訳(メタデータ) (2024-12-05T18:53:13Z) - Space-time Reinforcement Network for Video Object Segmentation [16.67780344875854]
ビデオオブジェクトセグメンテーション(VOS)ネットワークは通常、メモリベースの手法を使用する。
これらの手法は,1) 隣接するビデオフレーム間の空間的コヒーレンスをデータの整合によって破壊し,2) 画素レベルのマッチングが望ましくないミスマッチを引き起こすという2つの問題に悩まされる。
本稿では,隣接フレーム間の補助フレームを生成することを提案し,クエリの暗黙的短時間参照として機能する。
論文 参考訳(メタデータ) (2024-05-07T06:26:30Z) - ArchGym: An Open-Source Gymnasium for Machine Learning Assisted
Architecture Design [52.57999109204569]
ArchGymは、さまざまな検索アルゴリズムをアーキテクチャシミュレータに接続するオープンソースのフレームワークである。
我々は、カスタムメモリコントローラ、ディープニューラルネットワークアクセラレータ、AR/VRワークロード用のカスタムSOCを設計する際に、複数のバニラおよびドメイン固有の検索アルゴリズムにわたってArchGymを評価する。
論文 参考訳(メタデータ) (2023-06-15T06:41:23Z) - POPGym: Benchmarking Partially Observable Reinforcement Learning [7.435039755799297]
部分観察可能なプロセスジャム(POPGym)について紹介する。
POPGymは、15の部分的に観測可能な環境の多様なコレクションを含む2部構成のライブラリである。
人気の高いRLlibフレームワーク上に,高レベルのメモリAPIとメモリベースラインを実装しています。
論文 参考訳(メタデータ) (2023-03-03T11:25:33Z) - SupeRGB-D: Zero-shot Instance Segmentation in Cluttered Indoor
Environments [67.34330257205525]
本研究では,RGB-Dデータからゼロショットのインスタンスセグメンテーション(ZSIS)を探索し,意味的カテゴリに依存しない方法で未知のオブジェクトを識別する。
本稿では,注釈付きオブジェクトを用いて画素のオブジェクト性」を学習し,乱雑な屋内環境における未知のオブジェクトカテゴリに一般化する手法を提案する。
論文 参考訳(メタデータ) (2022-12-22T17:59:48Z) - Using Detection, Tracking and Prediction in Visual SLAM to Achieve
Real-time Semantic Mapping of Dynamic Scenarios [70.70421502784598]
RDS-SLAMは、一般的に使用されているIntel Core i7 CPUのみを使用して、動的シナリオのためのオブジェクトレベルでのセマンティックマップをリアルタイムで構築することができる。
我々は, TUM RGB-DデータセットにおけるRDS-SLAMを評価し, 動的シナリオにおいて, RDS-SLAMはフレームあたり30.3msで動作可能であることを示した。
論文 参考訳(メタデータ) (2022-10-10T11:03:32Z) - LiteTransformerSearch: Training-free On-device Search for Efficient
Autoregressive Language Models [34.673688610935876]
モデルトレーニングを必要とせずに、レイテンシとパープレクシリティが最前線に現れることを示す。
我々は,多種多様なデバイス上での軽量トランスフォーマーサーチ (LTS) の評価を行った。
最大2倍のレイテンシでTransformer-XLのパープレキシティを実現することができることを示す。
論文 参考訳(メタデータ) (2022-03-04T02:10:43Z) - Habitat 2.0: Training Home Assistants to Rearrange their Habitat [122.54624752876276]
インタラクティブな3D環境で仮想ロボットを訓練するためのシミュレーションプラットフォームHabitat 2.0(H2.0)を紹介する。
エンボディされたAIスタックのすべてのレベル – データ、シミュレーション、ベンチマークタスク – にコントリビューションを行います。
論文 参考訳(メタデータ) (2021-06-28T05:42:15Z) - Learning Spatio-Appearance Memory Network for High-Performance Visual
Tracking [79.80401607146987]
既存のオブジェクトトラッキングは通常、フレーム間の視覚的ターゲットにマッチするバウンディングボックスベースのテンプレートを学習する。
本稿では,局所時間メモリネットワークを備え,正確な時空間対応を学習するセグメンテーションに基づくトラッキングアーキテクチャを提案する。
論文 参考訳(メタデータ) (2020-09-21T08:12:02Z) - Towards Faster Reasoners By Using Transparent Huge Pages [0.491574468325115]
本研究では,ARツールのランタイムを平均で10%,長期実行タスクで最大20%削減するアプローチを提案する。
我々の改善は、ARツールで使用されるデータ構造に付随する高メモリ使用量に対処しています。
論文 参考訳(メタデータ) (2020-04-29T17:57:19Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。