論文の概要: Reward Function Design for Crowd Simulation via Reinforcement Learning
- arxiv url: http://arxiv.org/abs/2309.12841v1
- Date: Fri, 22 Sep 2023 12:55:30 GMT
- ステータス: 処理完了
- システム内更新日: 2023-09-25 14:41:48.292604
- Title: Reward Function Design for Crowd Simulation via Reinforcement Learning
- Title(参考訳): 強化学習による群衆シミュレーションのための報酬関数設計
- Authors: Ariel Kwiatkowski, Vicky Kalogeiton, Julien Pettr\'e, Marie-Paule Cani
- Abstract要約: 強化学習は仮想的な群集をシミュレートする大きな可能性を示しているが、報酬関数の設計は効率的かつ効率的な結果を達成するために重要である。
本研究では, 特定の報酬関数の妥当性を解析的特性に応じて理論的に把握し, 様々なシナリオを用いて実証的に評価する。
本研究は,新しい群集シミュレーション技術の発展に寄与し,人間のようなナビゲーションの幅広い研究に寄与する。
- 参考スコア(独自算出の注目度): 12.449513548800466
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Crowd simulation is important for video-games design, since it enables to
populate virtual worlds with autonomous avatars that navigate in a human-like
manner. Reinforcement learning has shown great potential in simulating virtual
crowds, but the design of the reward function is critical to achieving
effective and efficient results. In this work, we explore the design of reward
functions for reinforcement learning-based crowd simulation. We provide
theoretical insights on the validity of certain reward functions according to
their analytical properties, and evaluate them empirically using a range of
scenarios, using the energy efficiency as the metric. Our experiments show that
directly minimizing the energy usage is a viable strategy as long as it is
paired with an appropriately scaled guiding potential, and enable us to study
the impact of the different reward components on the behavior of the simulated
crowd. Our findings can inform the development of new crowd simulation
techniques, and contribute to the wider study of human-like navigation.
- Abstract(参考訳): 群衆シミュレーションは、仮想世界を人間のような方法でナビゲートする自律的なアバターで配置できるため、ビデオゲームの設計において重要である。
強化学習は仮想群衆をシミュレートする大きな可能性を示したが、報酬関数の設計は効果的かつ効率的な結果を達成するために重要である。
本研究では,強化学習に基づく群衆シミュレーションのための報酬関数の設計について検討する。
我々は,特定の報酬関数を解析的性質に応じて妥当性を理論的に把握し,エネルギー効率を指標として,様々なシナリオを用いて経験的に評価する。
実験の結果, エネルギー使用量を直接最小化することは, 適切なスケールの誘導電位と組み合わせれば可能であり, シミュレーションされた群衆の行動に異なる報酬成分が与える影響を研究することができることがわかった。
以上の知見は,新しい群集シミュレーション手法の開発に役立ち,人間型ナビゲーションのより広範な研究に寄与する。
関連論文リスト
- Human Simulacra: Benchmarking the Personification of Large Language Models [38.21708264569801]
大規模言語モデル(LLM)は、人間の知性の側面を忠実に模倣するシステムとして認識されている。
本稿では,仮想キャラクタのライフストーリーをゼロから構築するためのフレームワークを提案する。
実験により, 構築したシミュラクラは, 対象キャラクタと一致した擬人化応答を生成できることが実証された。
論文 参考訳(メタデータ) (2024-02-28T09:11:14Z) - User Behavior Simulation with Large Language Model based Agents [116.74368915420065]
LLMベースのエージェントフレームワークを提案し,実際のユーザ動作をシミュレートするサンドボックス環境を設計する。
実験結果から,本手法のシミュレーション行動は実人の行動に非常に近いことが判明した。
論文 参考訳(メタデータ) (2023-06-05T02:58:35Z) - Understanding reinforcement learned crowds [9.358303424584902]
強化学習法は仮想エージェントをアニメーションするために用いられる。
彼らの本当の影響と、それが結果にどのように影響するかは、明らかではない。
学習性能に対する影響の観点から,これらの任意選択のいくつかを分析した。
論文 参考訳(メタデータ) (2022-09-19T20:47:49Z) - Basis for Intentions: Efficient Inverse Reinforcement Learning using
Past Experience [89.30876995059168]
逆強化学習(IRL) - エージェントの報酬関数をその振る舞いを観察することから推測する。
本稿では、エージェントの報酬関数を観察することのできないIRLの問題に対処する。
論文 参考訳(メタデータ) (2022-08-09T17:29:49Z) - Improving Sample Efficiency of Value Based Models Using Attention and
Vision Transformers [52.30336730712544]
性能を犠牲にすることなくサンプル効率を向上させることを目的とした深層強化学習アーキテクチャを提案する。
状態表現の特徴マップ上の自己注意機構を変換器を用いて学習する視覚的注意モデルを提案する。
我々は,このアーキテクチャがいくつかのAtari環境におけるサンプルの複雑さを向上すると同時に,いくつかのゲームにおいて優れたパフォーマンスを実現することを実証的に実証した。
論文 参考訳(メタデータ) (2022-02-01T19:03:03Z) - TRAIL: Near-Optimal Imitation Learning with Suboptimal Data [100.83688818427915]
オフラインデータセットを使用してファクタードトランジションモデルを学習するトレーニング目標を提案する。
我々の理論的分析は、学習された潜在行動空間が下流模倣学習のサンプル効率を高めることを示唆している。
実際に潜伏行動空間を学習するために、エネルギーベースの遷移モデルを学ぶアルゴリズムTRAIL(Transition-Reparametrized Actions for Imitation Learning)を提案する。
論文 参考訳(メタデータ) (2021-10-27T21:05:00Z) - Intuitive Physics Guided Exploration for Sample Efficient Sim2real
Transfer [42.23861067181556]
本稿では,理想シミュレーション環境における実世界の軌跡の近似を可能にする潜在要因のタスク固有推定について述べる。
まず、人間物理学の知識と経験に基づく直感的なアクショングループ化を導入し、実環境と対話するための新しい戦略を設計する。
我々は,様々な物理ベースのタスクにおいて,我々のアプローチを実証し,限られた数の実世界インタラクションを用いて,他のベースラインと比較して優れた性能を実現することを示す。
論文 参考訳(メタデータ) (2021-04-18T10:03:26Z) - Point Cloud Based Reinforcement Learning for Sim-to-Real and Partial
Observability in Visual Navigation [62.22058066456076]
強化学習(Reinforcement Learning, RL)は、複雑なロボットタスクを解決する強力なツールである。
RL は sim-to-real transfer problem として知られる現実世界では直接作用しない。
本稿では,点雲と環境ランダム化によって構築された観測空間を学習する手法を提案する。
論文 参考訳(メタデータ) (2020-07-27T17:46:59Z) - Emergent Real-World Robotic Skills via Unsupervised Off-Policy
Reinforcement Learning [81.12201426668894]
報奨関数を使わずに多様なスキルを習得し,これらのスキルを下流のタスクに再利用する効率的な強化学習手法を開発した。
提案アルゴリズムは学習効率を大幅に向上させ,報酬のない実世界のトレーニングを実現する。
また,学習スキルは,目標指向ナビゲーションのためのモデル予測制御を用いて,追加のトレーニングを伴わずに構成可能であることも実証した。
論文 参考訳(メタデータ) (2020-04-27T17:38:53Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。