論文の概要: Trace and Pace: Controllable Pedestrian Animation via Guided Trajectory
Diffusion
- arxiv url: http://arxiv.org/abs/2304.01893v1
- Date: Tue, 4 Apr 2023 15:46:42 GMT
- ステータス: 処理完了
- システム内更新日: 2023-04-05 13:21:09.804587
- Title: Trace and Pace: Controllable Pedestrian Animation via Guided Trajectory
Diffusion
- Title(参考訳): Trace and Pace: Guided Trajectory Diffusionによる制御可能な歩行者アニメーション
- Authors: Davis Rempe, Zhengyi Luo, Xue Bin Peng, Ye Yuan, Kris Kitani, Karsten
Kreis, Sanja Fidler, Or Litany
- Abstract要約: 本研究では,現実的な歩行者軌跡生成手法と,ユーザ定義目標を達成するために制御可能なフルボディアニメーションを提案する。
我々のガイド付き拡散モデルでは,対象とする経路,速度,特定社会集団による軌道の制約が可能である。
本稿では,アニメーションコントローラのRLトレーニング中に学習した値関数を用いて,拡散を誘導し,特定のシナリオに適した軌道を生成することを提案する。
- 参考スコア(独自算出の注目度): 83.88829943619656
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We introduce a method for generating realistic pedestrian trajectories and
full-body animations that can be controlled to meet user-defined goals. We draw
on recent advances in guided diffusion modeling to achieve test-time
controllability of trajectories, which is normally only associated with
rule-based systems. Our guided diffusion model allows users to constrain
trajectories through target waypoints, speed, and specified social groups while
accounting for the surrounding environment context. This trajectory diffusion
model is integrated with a novel physics-based humanoid controller to form a
closed-loop, full-body pedestrian animation system capable of placing large
crowds in a simulated environment with varying terrains. We further propose
utilizing the value function learned during RL training of the animation
controller to guide diffusion to produce trajectories better suited for
particular scenarios such as collision avoidance and traversing uneven terrain.
Video results are available on the project page at
https://nv-tlabs.github.io/trace-pace .
- Abstract(参考訳): 本研究では,現実的な歩行者軌跡生成手法と,ユーザ定義目標を達成するために制御可能なフルボディアニメーションを提案する。
トラジェクトリの試験時間制御性を実現するための誘導拡散モデリングの最近の進歩は、通常ルールベースシステムにのみ関連付けられている。
提案手法により,利用者は周囲の環境条件を考慮しつつ,対象のウェイポイント,速度,特定社会グループを通じて軌道を制約できる。
この軌道拡散モデルは、新しい物理ベースのヒューマノイドコントローラと統合され、様々な地形のシミュレーション環境で大きな群衆を配置できる閉ループの全身歩行者アニメーションシステムを形成する。
さらに、アニメーションコントローラのRLトレーニング中に得られた値関数を利用して、衝突回避や不均一な地形の走行といった特定のシナリオに適した軌道を導出する。
ビデオの結果は、https://nv-tlabs.github.io/trace-paceのプロジェクトページで確認できる。
関連論文リスト
- LG-Traj: LLM Guided Pedestrian Trajectory Prediction [9.385936248154987]
LG-Trajは歩行者の過去・保存軌道に現れる動きの手がかりを生成する新しい手法である。
これらの動きの手がかりは、歩行者の座標とともに、下層の表現をよりよく理解するのに役立つ。
本手法では,移動パターンをモデル化するモーションエンコーダと,歩行者間の社会的相互作用を捉えるソーシャルデコーダからなるトランスフォーマーアーキテクチャを用いる。
論文 参考訳(メタデータ) (2024-03-12T19:06:23Z) - LDTrack: Dynamic People Tracking by Service Robots using Diffusion
Models [6.798578739481274]
本稿では、条件付き潜伏拡散モデル(LDTrack)を用いて、複数の動的人物をクラス内変動下で追跡する新しいディープラーニングアーキテクチャを提案する。
我々は,高次元の潜伏空間内での拡散処理を可能にする潜在特徴エンコーダネットワークを導入し,人物の外観,動き,位置,アイデンティティ,文脈情報などのリッチな特徴の抽出と時間的改善を可能にする。
論文 参考訳(メタデータ) (2024-02-13T20:16:31Z) - TLControl: Trajectory and Language Control for Human Motion Synthesis [72.1577841503518]
本稿では,人間のリアルな動き合成のための新しい手法であるTLControlを提案する。
まず、VQ-VAEをトレーニングし、ボディパーツによって構成されたコンパクトな潜伏運動空間を学習する。
そこで我々は,関節の完全な軌跡の粗い初期予測を行うMasked Trajectories Transformerを提案する。
論文 参考訳(メタデータ) (2023-11-28T18:54:16Z) - Visual Affordance Prediction for Guiding Robot Exploration [56.17795036091848]
我々は,ロボット探索を導くための視覚能力の学習手法を開発した。
VQ-VAEの潜伏埋め込み空間における条件分布の学習にはTransformerベースのモデルを用いる。
本稿では,ロボット操作における視覚的目標条件付きポリシー学習において,目標サンプリング分布として機能することで探索を導くために,トレーニングされた余裕モデルをどのように利用できるかを示す。
論文 参考訳(メタデータ) (2023-05-28T17:53:09Z) - STGlow: A Flow-based Generative Framework with Dual Graphormer for
Pedestrian Trajectory Prediction [22.553356096143734]
歩行者軌跡予測(STGlow)のための二重グラフマーを用いた新しい生成フローベースフレームワークを提案する。
本手法は,動作の正確なログライクな振る舞いを最適化することにより,基礎となるデータ分布をより正確にモデル化することができる。
いくつかのベンチマークによる実験結果から,本手法は従来の最先端手法に比べて性能が向上することが示された。
論文 参考訳(メタデータ) (2022-11-21T07:29:24Z) - Learning Continuous Environment Fields via Implicit Functions [144.4913852552954]
本研究では,到達距離(シーン内の任意の位置から目標までの距離)を,実現可能な軌道に沿って符号化する新しいシーン表現を提案する。
本研究では,2次元迷路や屋内3次元シーンにおけるエージェントの動的挙動を直接導出できることを実証する。
論文 参考訳(メタデータ) (2021-11-27T22:36:58Z) - DriveGAN: Towards a Controllable High-Quality Neural Simulation [147.6822288981004]
DriveGANと呼ばれる新しい高品質のニューラルシミュレータを紹介します。
DriveGANは、異なるコンポーネントを監督なしで切り離すことによって制御性を達成する。
実世界の運転データ160時間を含む複数のデータセットでdriveganをトレーニングします。
論文 参考訳(メタデータ) (2021-04-30T15:30:05Z) - AutoTrajectory: Label-free Trajectory Extraction and Prediction from
Videos using Dynamic Points [92.91569287889203]
軌道抽出と予測のための新しいラベルなしアルゴリズムAutoTrajectoryを提案する。
動画中の移動物体をよりよく捉えるために,ダイナミックポイントを導入する。
ビデオ内の歩行者などの移動物体を表すインスタンスポイントに動的ポイントを集約する。
論文 参考訳(メタデータ) (2020-07-11T08:43:34Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。