論文の概要: CNN-based Game State Detection for a Foosball Table
- arxiv url: http://arxiv.org/abs/2404.05357v1
- Date: Mon, 8 Apr 2024 09:48:02 GMT
- ステータス: 処理完了
- システム内更新日: 2024-04-09 14:54:22.261130
- Title: CNN-based Game State Detection for a Foosball Table
- Title(参考訳): フーズボールテーブルのCNNによるゲーム状態検出
- Authors: David Hagens, Jan Knaup, Elke Hergenröther, Andreas Weinmann,
- Abstract要約: フォスボールのゲームでは、コンパクトで包括的なゲーム状態の記述は、フィギュアの位置シフトと回転と、時間とともにボールの位置で構成される。
本稿では,フォスボールのゲーム状態を決定するフィギュア検出システムについて述べる。
このデータセットを使用して、畳み込みニューラルネットワーク(CNN)ベースのエンドツーエンド回帰モデルをトレーニングし、各ロッドの回転とシフトを予測する。
- 参考スコア(独自算出の注目度): 1.612440288407791
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The automation of games using Deep Reinforcement Learning Strategies (DRL) is a well-known challenge in AI research. While for feature extraction in a video game typically the whole image is used, this is hardly practical for many real world games. Instead, using a smaller game state reducing the dimension of the parameter space to include essential parameters only seems to be a promising approach. In the game of Foosball, a compact and comprehensive game state description consists of the positional shifts and rotations of the figures and the position of the ball over time. In particular, velocities and accelerations can be derived from consecutive time samples of the game state. In this paper, a figure detection system to determine the game state in Foosball is presented. We capture a dataset containing the rotations of the rods which were measured using accelerometers and the positional shifts were derived using traditional Computer Vision techniques (in a laboratory setting). This dataset is utilized to train Convolutional Neural Network (CNN) based end-to-end regression models to predict the rotations and shifts of each rod. We present an evaluation of our system using different state-of-the-art CNNs as base architectures for the regression model. We show that our system is able to predict the game state with high accuracy. By providing data for both black and white teams, the presented system is intended to provide the required data for future developments of Imitation Learning techniques w.r.t. to observing human players.
- Abstract(参考訳): Deep Reinforcement Learning Strategies (DRL) を用いたゲームの自動化は、AI研究においてよく知られている課題である。
ビデオゲームにおける特徴抽出には、通常、画像全体が使用されるが、現実の多くのゲームでは実用的ではない。
代わりに、パラメータ空間の次元を小さくして本質的なパラメータを含むゲーム状態を使用することは、有望なアプローチである。
フォスボールのゲームでは、コンパクトで包括的なゲーム状態の記述は、フィギュアの位置シフトと回転と、時間とともにボールの位置で構成される。
特に、ゲーム状態の連続した時間サンプルから速度と加速度を導出することができる。
本稿では,フォスボールのゲーム状態を決定するフィギュア検出システムについて述べる。
加速度計を用いて測定したロッドの回転を含むデータセットをキャプチャし、従来のコンピュータビジョン技術(実験室で)を用いて位置変化を導出した。
このデータセットを使用して、畳み込みニューラルネットワーク(CNN)ベースのエンドツーエンド回帰モデルをトレーニングし、各ロッドの回転とシフトを予測する。
本稿では, 回帰モデルの基本アーキテクチャとして, 異なる最先端CNNを用いたシステム評価を行う。
本システムでは,ゲーム状態を高精度に予測できることを示す。
このシステムは、白黒チームの両方にデータを提供することにより、人間の選手を観察するためにImitation Learning Technique w.r.t.の今後の開発に必要なデータを提供することを目的としている。
関連論文リスト
- Predicting Long-horizon Futures by Conditioning on Geometry and Time [49.86180975196375]
我々は,過去を前提とした将来のセンサ観測の課題を探求する。
マルチモーダリティを扱える画像拡散モデルの大規模事前学習を活用する。
我々は、屋内と屋外のシーンにまたがる多様なビデオのセットについて、ビデオ予測のためのベンチマークを作成する。
論文 参考訳(メタデータ) (2024-04-17T16:56:31Z) - An Unbiased Look at Datasets for Visuo-Motor Pre-Training [20.094244564603184]
データセットの選択は、このパラダイムの成功と同じくらい重要です。
従来の視覚データセットは、ビジュオモダ表現学習の驚くほど競争力のある選択肢である。
シミュレーションベンチマークは実世界のパフォーマンスの信頼できるプロキシではないことを示す。
論文 参考訳(メタデータ) (2023-10-13T17:59:02Z) - Promptable Game Models: Text-Guided Game Simulation via Masked Diffusion
Models [68.85478477006178]
ニューラルビデオゲームシミュレータのためのPGM(Promptable Game Model)を提案する。
ユーザーは高レベルのアクションシーケンスと低レベルのアクションシーケンスでゲームを実行することができる。
私たちのPGMは、エージェントの目標をプロンプトの形で指定することで、ディレクターのモードをアンロックします。
提案手法は,既存のニューラルビデオゲームシミュレータのレンダリング品質を著しく上回り,現在の最先端の能力を超えたアプリケーションをアンロックする。
論文 参考訳(メタデータ) (2023-03-23T17:43:17Z) - One-Shot Neural Fields for 3D Object Understanding [112.32255680399399]
ロボット工学のための統一的でコンパクトなシーン表現を提案する。
シーン内の各オブジェクトは、幾何学と外観をキャプチャする潜在コードによって描写される。
この表現は、新しいビューレンダリングや3D再構成、安定した把握予測といった様々なタスクのためにデコードできる。
論文 参考訳(メタデータ) (2022-10-21T17:33:14Z) - Graph Neural Networks to Predict Sports Outcomes [0.0]
スポーツに依存しないグラフによるゲーム状態の表現を導入する。
次に、提案したグラフ表現をグラフニューラルネットワークの入力として使用し、スポーツ結果を予測する。
論文 参考訳(メタデータ) (2022-07-28T14:45:02Z) - Keypoint Message Passing for Video-based Person Re-Identification [106.41022426556776]
ビデオベースの人物再識別(re-ID)は、異なるカメラで捉えた人々のビデオスニペットをマッチングすることを目的とした、視覚監視システムにおいて重要な技術である。
既存の手法は主に畳み込みニューラルネットワーク(CNN)に基づいており、そのビルディングブロックは近隣のピクセルを一度に処理するか、あるいは3D畳み込みが時間情報のモデル化に使用される場合、人の動きによって生じるミスアライメントの問題に悩まされる。
本稿では,人間指向グラフ法を用いて,通常の畳み込みの限界を克服することを提案する。具体的には,人手指のキーポイントに位置する特徴を抽出し,時空間グラフとして接続する。
論文 参考訳(メタデータ) (2021-11-16T08:01:16Z) - Predicting the outcome of team movements -- Player time series analysis
using fuzzy and deep methods for representation learning [0.0]
我々は、より拡張された一連の動きや戦術計画において、短い戦術と宇宙占領の有用なエンコーディングのためのフレームワークを提供する。
本稿では,2015-16シーズンのプロバスケットボールSportVUデータセットにおける予測・認識タスクに対する提案手法の有効性について検討する。
論文 参考訳(メタデータ) (2021-09-13T18:42:37Z) - Machine learning models for DOTA 2 outcomes prediction [8.388178167818635]
本研究は,Dota 2 MOBAゲームの結果を特定するための予測機械学習モデルとディープラーニングモデルの構築に主に焦点をあてる。
リニア回帰(LR)、ニューラルネットワーク(NN)、リカレントニューラルネットワーク(LSTM)の3つのモデルについて検討・比較を行った。
論文 参考訳(メタデータ) (2021-06-03T12:10:26Z) - Emotion Recognition on large video dataset based on Convolutional
Feature Extractor and Recurrent Neural Network [0.2855485723554975]
我々のモデルは、畳み込みニューラルネットワーク(CNN)とリカレントニューラルネットワーク(RNN)を組み合わせて、ビデオデータ上での次元的感情を予測する。
実験は、最新のAff-Wild2データベースを含む、公開データセットで実施されている。
論文 参考訳(メタデータ) (2020-06-19T14:54:13Z) - SimAug: Learning Robust Representations from Simulation for Trajectory
Prediction [78.91518036949918]
本研究では,シミュレーション学習データの拡張により,ロバスト表現を学習する新しい手法を提案する。
我々は,SimAugが実世界の3つのベンチマークで有望な結果を得ることを示す。
論文 参考訳(メタデータ) (2020-04-04T21:22:01Z) - Disentangling Controllable Object through Video Prediction Improves
Visual Reinforcement Learning [82.25034245150582]
多くの視覚に基づく強化学習問題において、エージェントは視野内の可動物体を制御する。
制御可能なオブジェクトを観測信号から切り離すためのエンドツーエンド学習フレームワークを提案する。
不整合表現は、RLがエージェントに追加の観察チャネルとして有用であることが示されている。
論文 参考訳(メタデータ) (2020-02-21T05:43:34Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。