論文の概要: Deep Reinforcement Learning for High Level Character Control
- arxiv url: http://arxiv.org/abs/2005.10391v1
- Date: Wed, 20 May 2020 23:32:19 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-01 05:05:28.302508
- Title: Deep Reinforcement Learning for High Level Character Control
- Title(参考訳): 高レベルキャラクタ制御のための深層強化学習
- Authors: Caio Souza and Luiz Velho
- Abstract要約: 本稿では,従来のアニメーション,行動,強化学習をコンピュータメディアの知的文字生成に活用することを提案する。
提示されるユースケースは、3D環境での高レベルコントローラを備えたドッグキャラクタで、アイテムのフェッチなど、学習すべき振る舞いを中心に構築されている。
- 参考スコア(独自算出の注目度): 0.9645196221785691
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In this paper, we propose the use of traditional animations, heuristic
behavior and reinforcement learning in the creation of intelligent characters
for computational media. The traditional animation and heuristic gives artistic
control over the behavior while the reinforcement learning adds generalization.
The use case presented is a dog character with a high-level controller in a 3D
environment which is built around the desired behaviors to be learned, such as
fetching an item. As the development of the environment is the key for
learning, further analysis is conducted of how to build those learning
environments, the effects of environment and agent modeling choices, training
procedures and generalization of the learned behavior. This analysis builds
insight of the aforementioned factors and may serve as guide in the development
of environments in general.
- Abstract(参考訳): 本稿では,従来のアニメーション,ヒューリスティックな動作,強化学習をコンピュータメディアのためのインテリジェントな文字生成に利用することを提案する。
伝統的なアニメーションとヒューリスティックは動作を芸術的に制御し、強化学習は一般化をもたらす。
提示されるユースケースは、3D環境での高レベルコントローラを備えたドッグキャラクタで、アイテムのフェッチなど、学習すべき振る舞いを中心に構築されている。
環境の発達が学習の鍵となるため、これらの学習環境の構築方法、環境とエージェントのモデリング選択の影響、トレーニング手順、学習行動の一般化について、さらなる分析が行われる。
この分析は、前述の要因の洞察を構築し、環境全般の発展のガイドとなる可能性がある。
関連論文リスト
- What Makes Pre-Trained Visual Representations Successful for Robust
Manipulation? [57.92924256181857]
照明やシーンテクスチャの微妙な変化の下では,操作や制御作業のために設計された視覚表現が必ずしも一般化されないことがわかった。
創発的セグメンテーション能力は,ViTモデルにおける分布外一般化の強い予測因子であることがわかった。
論文 参考訳(メタデータ) (2023-11-03T18:09:08Z) - Human-oriented Representation Learning for Robotic Manipulation [64.59499047836637]
人間は本質的に、操作作業において環境を効率的に探索し、相互作用することを可能にする、一般化可能な視覚表現を持っている。
我々は、このアイデアを、事前訓練された視覚エンコーダの上に、人間指向のマルチタスク微調整のレンズを通してフォーマル化する。
我々のタスクフュージョンデコーダは、下流操作ポリシー学習のための最先端の3つのビジュアルエンコーダの表現を一貫して改善する。
論文 参考訳(メタデータ) (2023-10-04T17:59:38Z) - Learning of Generalizable and Interpretable Knowledge in Grid-Based
Reinforcement Learning Environments [5.217870815854702]
本稿では,強化学習ポリシーを模倣するプログラム合成を提案する。
我々は,グリッド環境における概念学習に最先端のプログラム合成システムDreamCoderを適用した。
論文 参考訳(メタデータ) (2023-09-07T11:46:57Z) - Intrinsically Motivated Learning of Causal World Models [0.0]
有望な方向は、センサーと環境との相互作用の裏に隠された真の物理的なメカニズムを捉えた世界モデルを構築することである。
環境の因果構造を推定することは、適切な介入データを収集する手段として、適切なチョーセン行動の恩恵を受けることができる。
論文 参考訳(メタデータ) (2022-08-09T16:48:28Z) - Developing hierarchical anticipations via neural network-based event
segmentation [14.059479351946386]
我々は、自律的に学習された潜在イベントコードによる階層的予測の開発をモデル化する。
本稿では,学習バイアスが緩やかに変化する潜在状態の発達を促進する階層的再帰型ニューラルネットワークアーキテクチャを提案する。
より高いレベルのネットワークは、潜伏状態が変化しがちな状況を予測することを学ぶ。
論文 参考訳(メタデータ) (2022-06-04T18:54:31Z) - A Survey on Reinforcement Learning Methods in Character Animation [22.3342752080749]
強化学習(Reinforcement Learning)は、エージェントがシーケンシャルな決定をするためにどのようにトレーニングできるかに焦点を当てた機械学習の分野である。
本稿では,現代のDeep Reinforcement Learning法を調査し,キャラクタアニメーションにおける応用の可能性について考察する。
論文 参考訳(メタデータ) (2022-03-07T23:39:00Z) - Evaluating Continual Learning Algorithms by Generating 3D Virtual
Environments [66.83839051693695]
連続学習とは、人間や動物が特定の環境で徐々に学習する能力である。
本稿では3次元仮想環境の最近の進歩を活用して,フォトリアリスティックな外観を持つ潜在的に長寿命な動的シーンの自動生成にアプローチすることを提案する。
本論文の新たな要素は、シーンがパラメトリックな方法で記述され、エージェントが知覚する入力ストリームの視覚的複雑さを完全に制御できることである。
論文 参考訳(メタデータ) (2021-09-16T10:37:21Z) - Backprop-Free Reinforcement Learning with Active Neural Generative
Coding [84.11376568625353]
動的環境におけるエラー(バックプロップ)のバックプロパゲーションを伴わない行動駆動型生成モデルの学習のための計算フレームワークを提案する。
我々は、まばらな報酬でも機能するインテリジェントエージェントを開発し、推論として計画の認知理論からインスピレーションを得ている。
我々のエージェントの堅牢な性能は、神経推論と学習のためのバックプロップフリーアプローチがゴール指向の行動を促進するという有望な証拠を提供する。
論文 参考訳(メタデータ) (2021-07-10T19:02:27Z) - 3D Neural Scene Representations for Visuomotor Control [78.79583457239836]
我々は2次元視覚観測から動的3次元シーンのモデルを純粋に学習する。
学習した表現空間上に構築された動的モデルにより,操作課題に対するビジュモータ制御が可能となる。
論文 参考訳(メタデータ) (2021-07-08T17:49:37Z) - Learning to Simulate Dynamic Environments with GameGAN [109.25308647431952]
本稿では,エージェントが環境と対話するのを見ることでシミュレーターを学習することを目的とする。
ゲームGANは,学習中にスクリーンプレイやキーボード操作を取り入れることで,所望のゲームを視覚的に模倣することを学習する生成モデルである。
論文 参考訳(メタデータ) (2020-05-25T14:10:17Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。