論文の概要: Understanding reinforcement learned crowds
- arxiv url: http://arxiv.org/abs/2209.09344v1
- Date: Mon, 19 Sep 2022 20:47:49 GMT
- ステータス: 処理完了
- システム内更新日: 2022-09-21 18:00:24.640757
- Title: Understanding reinforcement learned crowds
- Title(参考訳): 群衆の強化を理解する
- Authors: Ariel Kwiatkowski, Vicky Kalogeiton, Julien Pettr\'e, Marie-Paule Cani
- Abstract要約: 強化学習法は仮想エージェントをアニメーションするために用いられる。
彼らの本当の影響と、それが結果にどのように影響するかは、明らかではない。
学習性能に対する影響の観点から,これらの任意選択のいくつかを分析した。
- 参考スコア(独自算出の注目度): 9.358303424584902
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Simulating trajectories of virtual crowds is a commonly encountered task in
Computer Graphics. Several recent works have applied Reinforcement Learning
methods to animate virtual agents, however they often make different design
choices when it comes to the fundamental simulation setup. Each of these
choices comes with a reasonable justification for its use, so it is not obvious
what is their real impact, and how they affect the results. In this work, we
analyze some of these arbitrary choices in terms of their impact on the
learning performance, as well as the quality of the resulting simulation
measured in terms of the energy efficiency. We perform a theoretical analysis
of the properties of the reward function design, and empirically evaluate the
impact of using certain observation and action spaces on a variety of
scenarios, with the reward function and energy usage as metrics. We show that
directly using the neighboring agents' information as observation generally
outperforms the more widely used raycasting. Similarly, using nonholonomic
controls with egocentric observations tends to produce more efficient behaviors
than holonomic controls with absolute observations. Each of these choices has a
significant, and potentially nontrivial impact on the results, and so
researchers should be mindful about choosing and reporting them in their work.
- Abstract(参考訳): 仮想群衆の軌道をシミュレートすることは、コンピュータグラフィックスでよく見られるタスクである。
最近のいくつかの研究は、仮想エージェントに強化学習法を適用しているが、基本的なシミュレーション設定に関して、異なる設計選択をすることが多い。
これらの選択には、その使用に対する合理的な正当化が伴うため、その本当の影響と結果への影響は明らかではない。
本研究では,これらの任意選択のいくつかを,学習性能への影響,およびエネルギー効率の観点から測定したシミュレーションの品質の観点から分析する。
報奨関数設計の特性を理論的に解析し、様々なシナリオにおける特定の観測と行動空間の使用による影響を実験的に評価し、報奨関数とエネルギー利用を指標とした。
近隣のエージェントの情報を直接観察することで、より広く使われているレイキャストよりも優れていることを示す。
同様に、エゴセントリックな観察を伴う非ホロノミック制御を用いると、絶対的な観察を伴うホロノミック制御よりも効率的な行動を生み出す傾向がある。
それぞれの選択は、結果に大きな影響を与え、潜在的に非自明な影響を与えるため、研究者は、研究の中でそれらを選択して報告することに注意する必要がある。
関連論文リスト
- What Makes Pre-Trained Visual Representations Successful for Robust
Manipulation? [57.92924256181857]
照明やシーンテクスチャの微妙な変化の下では,操作や制御作業のために設計された視覚表現が必ずしも一般化されないことがわかった。
創発的セグメンテーション能力は,ViTモデルにおける分布外一般化の強い予測因子であることがわかった。
論文 参考訳(メタデータ) (2023-11-03T18:09:08Z) - Reward Function Design for Crowd Simulation via Reinforcement Learning [12.449513548800466]
強化学習は仮想的な群集をシミュレートする大きな可能性を示しているが、報酬関数の設計は効率的かつ効率的な結果を達成するために重要である。
本研究では, 特定の報酬関数の妥当性を解析的特性に応じて理論的に把握し, 様々なシナリオを用いて実証的に評価する。
本研究は,新しい群集シミュレーション技術の発展に寄与し,人間のようなナビゲーションの幅広い研究に寄与する。
論文 参考訳(メタデータ) (2023-09-22T12:55:30Z) - Dynamic-Resolution Model Learning for Object Pile Manipulation [33.05246884209322]
本研究では,様々な抽象レベルで動的かつ適応的な表現を学習し,効率と効率の最適なトレードオフを実現する方法について検討する。
具体的には、環境の動的分解能粒子表現を構築し、グラフニューラルネットワーク(GNN)を用いた統一力学モデルを学ぶ。
本手法は, 粒状オブジェクトの収集, ソート, 再分配において, 最先端の固定解像度ベースラインよりも優れた性能が得られることを示す。
論文 参考訳(メタデータ) (2023-06-29T05:51:44Z) - DOMINO: Visual Causal Reasoning with Time-Dependent Phenomena [59.291745595756346]
本研究では,時間遅延のウィンドウに関連する因果関係の発見に人間が参加できる視覚分析手法を提案する。
具体的には、論理に基づく因果関係の確立した手法を活用し、分析者が潜在的な原因の重要性を検証できるようにする。
効果は他の効果の原因となりうるので,本手法で検出した時間的要因と効果の関係を視覚フロー図にまとめることができる。
論文 参考訳(メタデータ) (2023-03-12T03:40:21Z) - The Influences of Color and Shape Features in Visual Contrastive
Learning [0.0]
本稿では,個々の画像特徴(色や形状など)がモデル性能に与える影響について検討する。
実験結果から、教師付き表現と比較して、コントラスト表現は類似した色を持つオブジェクトとクラスタリングする傾向にあることが示された。
論文 参考訳(メタデータ) (2023-01-29T15:10:14Z) - Task Formulation Matters When Learning Continually: A Case Study in
Visual Question Answering [58.82325933356066]
継続的な学習は、以前の知識を忘れずに、一連のタスクでモデルを漸進的にトレーニングすることを目的としている。
本稿では,視覚的質問応答において,異なる設定がパフォーマンスに与える影響について詳細に検討する。
論文 参考訳(メタデータ) (2022-09-30T19:12:58Z) - Supervised Contrastive Learning for Affect Modelling [2.570570340104555]
情報に影響を及ぼすことを考慮に入れた訓練表現のための3つの異なる教師付きコントラスト学習手法を導入する。
その結果、コントラスト学習の表現能力と、影響モデルの精度を高めるための効率が示された。
論文 参考訳(メタデータ) (2022-08-25T17:40:19Z) - An Empirical Investigation of Commonsense Self-Supervision with
Knowledge Graphs [67.23285413610243]
大規模知識グラフから抽出した情報に基づく自己監督は、言語モデルの一般化を改善することが示されている。
本研究では,言語モデルに適用可能な合成データを生成するための知識サンプリング戦略とサイズの影響について検討する。
論文 参考訳(メタデータ) (2022-05-21T19:49:04Z) - Models, Pixels, and Rewards: Evaluating Design Trade-offs in Visual
Model-Based Reinforcement Learning [109.74041512359476]
視覚的MBRLアルゴリズムにおける予測モデルの設計決定について検討する。
潜在空間の使用など、しばしば重要と見なされる設計上の決定は、タスクのパフォーマンスにはほとんど影響しないことが分かりました。
我々は,この現象が探索とどのように関係しているか,および標準ベンチマークにおける下位スコーリングモデルのいくつかが,同じトレーニングデータでトレーニングされた場合のベストパフォーマンスモデルと同等の性能を発揮するかを示す。
論文 参考訳(メタデータ) (2020-12-08T18:03:21Z) - Point Cloud Based Reinforcement Learning for Sim-to-Real and Partial
Observability in Visual Navigation [62.22058066456076]
強化学習(Reinforcement Learning, RL)は、複雑なロボットタスクを解決する強力なツールである。
RL は sim-to-real transfer problem として知られる現実世界では直接作用しない。
本稿では,点雲と環境ランダム化によって構築された観測空間を学習する手法を提案する。
論文 参考訳(メタデータ) (2020-07-27T17:46:59Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。