論文の概要: Learning to Play Video Games with Intuitive Physics Priors
- arxiv url: http://arxiv.org/abs/2409.13886v1
- Date: Fri, 20 Sep 2024 20:30:27 GMT
- ステータス: 処理完了
- システム内更新日: 2024-11-07 04:39:44.187635
- Title: Learning to Play Video Games with Intuitive Physics Priors
- Title(参考訳): 直観的物理学の先駆者によるビデオゲームの学習
- Authors: Abhishek Jaiswal, Nisheeth Srivastava,
- Abstract要約: 我々は、多数のビデオゲームでよく一般化されたオブジェクトベースの入力表現を設計する。
これらの表現を用いて,幼児に類似したゲームを学ぶエージェントの能力を評価する。
以上の結果から,人間のようなオブジェクトインタラクションのセットアップが,複数のビデオゲームを遊べるように学習できることが示唆された。
- 参考スコア(独自算出の注目度): 2.1548132286330453
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Video game playing is an extremely structured domain where algorithmic decision-making can be tested without adverse real-world consequences. While prevailing methods rely on image inputs to avoid the problem of hand-crafting state space representations, this approach systematically diverges from the way humans actually learn to play games. In this paper, we design object-based input representations that generalize well across a number of video games. Using these representations, we evaluate an agent's ability to learn games similar to an infant - with limited world experience, employing simple inductive biases derived from intuitive representations of physics from the real world. Using such biases, we construct an object category representation to be used by a Q-learning algorithm and assess how well it learns to play multiple games based on observed object affordances. Our results suggest that a human-like object interaction setup capably learns to play several video games, and demonstrates superior generalizability, particularly for unfamiliar objects. Further exploring such methods will allow machines to learn in a human-centric way, thus incorporating more human-like learning benefits.
- Abstract(参考訳): ビデオゲームは極めて構造化された領域であり、アルゴリズムによる意思決定は現実世界に悪影響を及ぼすことなくテストできる。
状態空間の表現を手作りする問題を避けるために画像入力が主流であるが、このアプローチは人間が実際にゲームを学ぶ方法から体系的に分離する。
本稿では,多数のビデオゲームでよく一般化されたオブジェクトベースの入力表現を設計する。
これらの表現を用いて,実世界の物理の直観的表現から導かれる単純な帰納的バイアスを用いて,幼児に似たゲームを学ぶエージェントの能力を評価する。
このようなバイアスを用いて、Q-ラーニングアルゴリズムで使用されるオブジェクトカテゴリ表現を構築し、観察対象の余裕に基づいて複数のゲームがどれだけうまく遊べるかを評価する。
以上の結果から,人間のようなオブジェクトインタラクションは,複数のビデオゲームを遊べるように学習し,特に不慣れなオブジェクトに対して,より優れた一般化性を示すことが示唆された。
このような手法をさらに探求することで、機械は人間中心の方法で学習できるようになる。
関連論文リスト
- Gamifying Math Education using Object Detection [0.696125353550498]
本研究では,5~8歳児を対象に,形状タイルマニピュレータを用いた幾何学学習のためのカリキュラム・インスピレーションによる授業システムを提案する。
これにより、任意の向きを持つ高密度に充填されたオブジェクトに対するオブジェクト指向オブジェクト検出の課題がもたらされる。
我々は,ユーザのインタラクションを理解し,リアルタイムの視聴覚フィードバックを提供するシステムを開発した。
論文 参考訳(メタデータ) (2023-04-13T05:06:33Z) - A Differentiable Recipe for Learning Visual Non-Prehensile Planar
Manipulation [63.1610540170754]
視覚的非包括的平面操作の問題に焦点をあてる。
本稿では,ビデオデコードニューラルモデルと接触力学の先行情報を組み合わせた新しいアーキテクチャを提案する。
モジュラーで完全に差別化可能なアーキテクチャは、目に見えないオブジェクトやモーションの学習専用手法よりも優れていることが分かりました。
論文 参考訳(メタデータ) (2021-11-09T18:39:45Z) - Playful Interactions for Representation Learning [82.59215739257104]
本稿では,下流タスクの視覚的表現を学習するために,遊び心のあるインタラクションを自己指導的に利用することを提案する。
19の多様な環境で2時間の遊び心のあるデータを収集し、自己予測学習を用いて視覚的表現を抽出する。
我々の表現は、標準的な行動クローニングよりも一般化され、必要なデモの半数しか必要とせず、同様の性能を達成できる。
論文 参考訳(メタデータ) (2021-07-19T17:54:48Z) - Contrastive Learning of Generalized Game Representations [2.323282558557423]
ピクセルを通してゲームを表現することは、汎用的で汎用的なゲームモデルを構築する上で有望なアプローチを提供する。
ゲームは単なる画像ではないが、ゲーム画素で訓練されたニューラルネットワークモデルは、ゲームの内容ではなく、画像の視覚的スタイルの違いをキャプチャすることが多い。
本稿では,コントラスト学習の最近の進歩を基盤として,ゲームにおける表現学習のメリットを示す。
論文 参考訳(メタデータ) (2021-06-18T11:17:54Z) - Teach me to play, gamer! Imitative learning in computer games via
linguistic description of complex phenomena and decision tree [55.41644538483948]
本稿では,複雑な現象の言語記述に基づく模倣による新しい機械学習モデルを提案する。
この手法は,ゲーム開発における知的エージェントの動作を設計し,実装するための優れた代替手段となる。
論文 参考訳(メタデータ) (2021-01-06T21:14:10Z) - Learning Object Manipulation Skills via Approximate State Estimation
from Real Videos [47.958512470724926]
人間は、いくつかの指導ビデオを見て、新しいタスクを学ぶことに精通しています。
一方、新しいアクションを学習するロボットは、試行錯誤によって多くの労力を必要とするか、あるいは入手が困難な専門家によるデモを使う必要がある。
本稿では,ビデオから直接オブジェクト操作スキルを学習する手法について検討する。
論文 参考訳(メタデータ) (2020-11-13T08:53:47Z) - Learning Dexterous Grasping with Object-Centric Visual Affordances [86.49357517864937]
控えめなロボットハンドは、機敏さと人間のような形態をアピールしています。
本稿では,厳密な把握を学習するためのアプローチを提案する。
私たちのキーとなるアイデアは、オブジェクト中心の視覚的余裕モデルを深い強化学習ループに埋め込むことです。
論文 参考訳(メタデータ) (2020-09-03T04:00:40Z) - Benchmarking End-to-End Behavioural Cloning on Video Games [5.863352129133669]
我々は,2010年以降の6ゲームを含む12のビデオゲームにおける行動クローンの一般適用性について検討した。
以上の結果から,これらのエージェントは生演奏では人間と一致しないが,基本力学やルールを学習できることがわかった。
また、データの質や、人間からのデータの記録が、人間の反射によって、状態-作用ミスマッチの対象になっていることを実証する。
論文 参考訳(メタデータ) (2020-04-02T13:31:51Z) - Exploration Based Language Learning for Text-Based Games [72.30525050367216]
本研究は,テキストベースのコンピュータゲームにおいて,最先端の性能を発揮できる探索・模倣学習型エージェントを提案する。
テキストベースのコンピュータゲームは、自然言語でプレイヤーの世界を記述し、プレイヤーがテキストを使ってゲームと対話することを期待する。
これらのゲームは、言語理解、問題解決、および人工エージェントによる言語生成のためのテストベッドと見なすことができるため、興味がある。
論文 参考訳(メタデータ) (2020-01-24T03:03:51Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。