論文の概要: StarCraftImage: A Dataset For Prototyping Spatial Reasoning Methods For
Multi-Agent Environments
- arxiv url: http://arxiv.org/abs/2401.04290v1
- Date: Tue, 9 Jan 2024 00:05:56 GMT
- ステータス: 処理完了
- システム内更新日: 2024-01-10 17:14:26.359442
- Title: StarCraftImage: A Dataset For Prototyping Spatial Reasoning Methods For
Multi-Agent Environments
- Title(参考訳): StarCraftImage:マルチエージェント環境のための空間推論手法をプロトタイピングするデータセット
- Authors: Sean Kulinski, Nicholas R. Waytowich, James Z. Hare, David I. Inouye
- Abstract要約: 複雑なマルチエージェント動作を示すStarCraft IIリプレイに基づくベンチマーク空間推論データセットを構築した。
このデータセットが空間推論手法のプロトタイピングにどのように使用できるかを示す。
- 参考スコア(独自算出の注目度): 13.003965333378273
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Spatial reasoning tasks in multi-agent environments such as event prediction,
agent type identification, or missing data imputation are important for
multiple applications (e.g., autonomous surveillance over sensor networks and
subtasks for reinforcement learning (RL)). StarCraft II game replays encode
intelligent (and adversarial) multi-agent behavior and could provide a testbed
for these tasks; however, extracting simple and standardized representations
for prototyping these tasks is laborious and hinders reproducibility. In
contrast, MNIST and CIFAR10, despite their extreme simplicity, have enabled
rapid prototyping and reproducibility of ML methods. Following the simplicity
of these datasets, we construct a benchmark spatial reasoning dataset based on
StarCraft II replays that exhibit complex multi-agent behaviors, while still
being as easy to use as MNIST and CIFAR10. Specifically, we carefully summarize
a window of 255 consecutive game states to create 3.6 million summary images
from 60,000 replays, including all relevant metadata such as game outcome and
player races. We develop three formats of decreasing complexity: Hyperspectral
images that include one channel for every unit type (similar to multispectral
geospatial images), RGB images that mimic CIFAR10, and grayscale images that
mimic MNIST. We show how this dataset can be used for prototyping spatial
reasoning methods. All datasets, code for extraction, and code for dataset
loading can be found at https://starcraftdata.davidinouye.com
- Abstract(参考訳): イベント予測、エージェントタイプ識別、欠落データ計算などのマルチエージェント環境における空間推論タスクは、複数のアプリケーション(例えば、センサネットワーク上の自律監視や強化学習のためのサブタスクなど)において重要である。
StarCraft IIのゲームは知的(および敵対的な)マルチエージェント動作をエンコードし、これらのタスクのテストベッドを提供するが、これらのタスクをプロトタイピングするためのシンプルで標準化された表現を抽出することは困難であり、再現性を妨げている。
対照的に、MNISTとCIFAR10は極端に単純であるにもかかわらず、MLメソッドの迅速なプロトタイピングと再現性を実現している。
これらのデータセットの簡易化に続いて、複雑なマルチエージェント動作を示すStarCraft IIリプレイに基づくベンチマーク空間推論データセットを構築し、MNISTやCIFAR10と同じくらい使いやすくする。
具体的には、255の連続したゲーム状態のウィンドウを慎重に要約し、6万のリプレイから360万の要約画像を作成します。
我々は,単位型毎に1つのチャネルを含む超スペクトル画像,cifar10を模倣したrgb画像,mnistを模倣したグレースケール画像の3つのフォーマットを開発した。
このデータセットが空間推論手法のプロトタイピングにどのように使用できるかを示す。
すべてのデータセット、抽出用コード、およびデータセットローディング用のコードは、https://starcraftdata.davidinouye.comにある。
関連論文リスト
- Deciphering Movement: Unified Trajectory Generation Model for Multi-Agent [53.637837706712794]
任意の軌道をマスク入力として処理する統一軌道生成モデルUniTrajを提案する。
具体的には,空間特徴抽出のためのトランスフォーマーエンコーダ内に埋め込まれたゴースト空間マスキング(GSM)モジュールを導入する。
バスケットボール-U,サッカー-U,サッカー-Uの3つの実用的なスポーツゲームデータセットをベンチマークして評価を行った。
論文 参考訳(メタデータ) (2024-05-27T22:15:23Z) - MASSTAR: A Multi-Modal and Large-Scale Scene Dataset with a Versatile Toolchain for Surface Prediction and Completion [25.44529512862336]
MASSTARはマルチモーダルなlArgeスケールのシーンデータセットであり、サーフAce predictionと完了のためのVerSatile Toolchainを備えている。
環境から生の3Dデータを処理するための汎用的で効率的なツールチェーンを開発した。
実世界の部分的なデータを含む1000以上のシーンレベルのモデルからなるサンプルデータセットを生成する。
論文 参考訳(メタデータ) (2024-03-18T11:35:18Z) - DNA-Rendering: A Diverse Neural Actor Repository for High-Fidelity
Human-centric Rendering [126.00165445599764]
ニューラルアクターレンダリングのための人間のパフォーマンスデータの大規模かつ高忠実なリポジトリであるDNAレンダリングを提案する。
我々のデータセットには、1500人以上の被験者、5000のモーションシーケンス、67.5Mのフレームのデータボリュームが含まれています。
我々は,最大解像度4096 x 3000の60個の同期カメラと15fpsの速度,ステルカメラキャリブレーションステップを含む,データをキャプチャするプロフェッショナルなマルチビューシステムを構築した。
論文 参考訳(メタデータ) (2023-07-19T17:58:03Z) - One-Shot Neural Fields for 3D Object Understanding [112.32255680399399]
ロボット工学のための統一的でコンパクトなシーン表現を提案する。
シーン内の各オブジェクトは、幾何学と外観をキャプチャする潜在コードによって描写される。
この表現は、新しいビューレンダリングや3D再構成、安定した把握予測といった様々なタスクのためにデコードできる。
論文 参考訳(メタデータ) (2022-10-21T17:33:14Z) - Multi-Attention Network for Compressed Video Referring Object
Segmentation [103.18477550023513]
ビデオオブジェクトのセグメンテーションの参照は、与えられた言語表現によって参照されるオブジェクトをセグメンテーションすることを目的としている。
既存の作業は通常、圧縮されたビデオビットストリームをセグメント化する前にRGBフレームにデコードする必要がある。
これにより、自動運転車やドローンなど、現実のコンピューティングリソースの制限されたシナリオでの応用が妨げられる可能性がある。
論文 参考訳(メタデータ) (2022-07-26T03:00:52Z) - ClevrTex: A Texture-Rich Benchmark for Unsupervised Multi-Object
Segmentation [23.767094632640763]
本稿では,アルゴリズムの比較,評価,分析を行うための次の課題として,ClevrTexを提案する。
ClarTexは、様々な形状、テクスチャ、フォトマップ素材を備えた合成シーンを特徴としている。
我々は、ClevrTex上で、最近の多数の教師なしマルチオブジェクトセグメンテーションモデルをベンチマークし、テクスチャ化された環境では、すべての最先端のアプローチが良い表現を学習できないことを発見した。
論文 参考訳(メタデータ) (2021-11-19T15:11:25Z) - Semantic Tracklets: An Object-Centric Representation for Visual
Multi-Agent Reinforcement Learning [126.57680291438128]
本研究では,不整合表現によるスケーラビリティの実現について検討する。
視覚多エージェント粒子環境(VMPE)と視覚多エージェントGFootball環境における意味トラックレット'の評価を行った。
特に,この手法は視覚データのみを用いて,GFootball環境における5人のプレイヤーの戦略を学習した最初の方法である。
論文 参考訳(メタデータ) (2021-08-06T22:19:09Z) - Self-Supervised Representation Learning for RGB-D Salient Object
Detection [93.17479956795862]
我々は、自己教師付き表現学習を用いて、クロスモーダルオートエンコーダと深さ-輪郭推定という2つのプレテキストタスクを設計する。
我々のプレテキストタスクは、ネットワークがリッチなセマンティックコンテキストをキャプチャする事前トレーニングを実行するのに、少数のRGB-Dデータセットしか必要としない。
RGB-D SODにおけるクロスモーダル核融合の固有の問題として,マルチパス核融合モジュールを提案する。
論文 参考訳(メタデータ) (2021-01-29T09:16:06Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。