論文の概要: PACER+: On-Demand Pedestrian Animation Controller in Driving Scenarios
- arxiv url: http://arxiv.org/abs/2404.19722v1
- Date: Tue, 30 Apr 2024 17:15:42 GMT
- ステータス: 処理完了
- システム内更新日: 2024-05-01 13:26:28.661826
- Title: PACER+: On-Demand Pedestrian Animation Controller in Driving Scenarios
- Title(参考訳): PACER+: シナリオ駆動におけるオンデマンド歩行者アニメーションコントローラ
- Authors: Jingbo Wang, Zhengyi Luo, Ye Yuan, Yixuan Li, Bo Dai,
- Abstract要約: 運転シナリオにおける歩行者シミュレーションにおけるコンテンツ多様性と制御可能性の課題に対処する。
動作追跡タスクと軌跡追従タスクを組み合わせることで,特定の動作部品の追跡を可能にする。
このようにして、シミュレーションされた人間の動きの多様性とコンテンツの制御性の両方を著しく向上させる。
- 参考スコア(独自算出の注目度): 29.79885947970745
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We address the challenge of content diversity and controllability in pedestrian simulation for driving scenarios. Recent pedestrian animation frameworks have a significant limitation wherein they primarily focus on either following trajectory [46] or the content of the reference video [57], consequently overlooking the potential diversity of human motion within such scenarios. This limitation restricts the ability to generate pedestrian behaviors that exhibit a wider range of variations and realistic motions and therefore restricts its usage to provide rich motion content for other components in the driving simulation system, e.g., suddenly changed motion to which the autonomous vehicle should respond. In our approach, we strive to surpass the limitation by showcasing diverse human motions obtained from various sources, such as generated human motions, in addition to following the given trajectory. The fundamental contribution of our framework lies in combining the motion tracking task with trajectory following, which enables the tracking of specific motion parts (e.g., upper body) while simultaneously following the given trajectory by a single policy. This way, we significantly enhance both the diversity of simulated human motion within the given scenario and the controllability of the content, including language-based control. Our framework facilitates the generation of a wide range of human motions, contributing to greater realism and adaptability in pedestrian simulations for driving scenarios. More information is on our project page https://wangjingbo1219.github.io/papers/CVPR2024_PACER_PLUS/PACERPLUSPage.html .
- Abstract(参考訳): 運転シナリオにおける歩行者シミュレーションにおけるコンテンツ多様性と制御可能性の課題に対処する。
近年の歩行者アニメーションの枠組みは、主に軌跡 [46] や基準映像 [57] の内容に焦点を合わせており、その結果、そのようなシナリオにおける人間の動きの潜在的な多様性を見落としている。
この制限は、より広い範囲の変動と現実的な動きを示す歩行者行動を生成する能力を制限するため、運転シミュレーションシステム内の他のコンポーネントに対してリッチな動きコンテンツを提供するためにその使用を制限する。
提案手法では, 与えられた軌跡の追従に加えて, 生成した人の動きなど, 様々な音源から得られる多様な人の動きを呈示することにより, 限界を超えるよう努めている。
本フレームワークの基本的な貢献は、運動追跡タスクと軌跡追従タスクを組み合わせることであり、これにより特定の運動部位(上半身など)の追跡を同時に行うことができ、同時に与えられた軌跡を単一の方針で追従することができる。
このようにして、与えられたシナリオ内でのシミュレーションされた人間の動きの多様性と、言語による制御を含むコンテンツの制御性の両方を著しく向上させる。
この枠組みは,運転シナリオの歩行者シミュレーションにおいて,より現実性や適応性の向上に寄与する。
詳細はプロジェクトのページhttps://wangjingbo1219.github.io/papers/CVPR2024_PACER_PLUS/PACERPLUSPage.htmlを参照してください。
関連論文リスト
- Motion Prompting: Controlling Video Generation with Motion Trajectories [57.049252242807874]
スパースもしくは高密度なビデオ軌跡を条件とした映像生成モデルを訓練する。
ハイレベルなユーザリクエストを,詳細なセミセンスな動作プロンプトに変換する。
我々は、カメラや物体の動き制御、画像との「相互作用」、動画転送、画像編集など、様々な応用を通してアプローチを実証する。
論文 参考訳(メタデータ) (2024-12-03T18:59:56Z) - Sitcom-Crafter: A Plot-Driven Human Motion Generation System in 3D Scenes [90.39860012099393]
Sitcom-Crafterは3D空間における人間のモーション生成システムである。
機能生成モジュールの中心は、我々の新しい3Dシーン対応ヒューマン・ヒューマン・インタラクションモジュールである。
拡張モジュールは、コマンド生成のためのプロット理解、異なるモーションタイプのシームレスな統合のためのモーション同期を含む。
論文 参考訳(メタデータ) (2024-10-14T17:56:19Z) - Real-time Diverse Motion In-betweening with Space-time Control [4.910937238451485]
本研究では,キネマティックキャラクタのための多種多様な相互動作を生成するためのデータ駆動型フレームワークを提案する。
本手法は,移動動作と非構造動作の両方を合成し,リッチで汎用的で高品質なアニメーション生成を可能にする。
論文 参考訳(メタデータ) (2024-09-30T22:45:53Z) - Universal Humanoid Motion Representations for Physics-Based Control [71.46142106079292]
物理学に基づくヒューマノイド制御のための総合的な運動スキルを含む普遍的な運動表現を提案する。
まず、大きな非構造運動データセットから人間の動きをすべて模倣できる動き模倣機を学習する。
次に、模倣者から直接スキルを蒸留することで、動作表現を作成します。
論文 参考訳(メタデータ) (2023-10-06T20:48:43Z) - MotionTrack: Learning Motion Predictor for Multiple Object Tracking [68.68339102749358]
本研究では,学習可能なモーション予測器を中心に,新しいモーショントラッカーであるMotionTrackを紹介する。
実験結果から、MotionTrackはDancetrackやSportsMOTといったデータセット上での最先端のパフォーマンスを示す。
論文 参考訳(メタデータ) (2023-06-05T04:24:11Z) - Trace and Pace: Controllable Pedestrian Animation via Guided Trajectory
Diffusion [83.88829943619656]
本研究では,現実的な歩行者軌跡生成手法と,ユーザ定義目標を達成するために制御可能なフルボディアニメーションを提案する。
我々のガイド付き拡散モデルでは,対象とする経路,速度,特定社会集団による軌道の制約が可能である。
本稿では,アニメーションコントローラのRLトレーニング中に学習した値関数を用いて,拡散を誘導し,特定のシナリオに適した軌道を生成することを提案する。
論文 参考訳(メタデータ) (2023-04-04T15:46:42Z) - Executing your Commands via Motion Diffusion in Latent Space [51.64652463205012]
本研究では,動作遅延に基づく拡散モデル(MLD)を提案し,条件付き入力に対応する鮮明な動き列を生成する。
我々のMDDは、広範囲な人体運動生成タスクにおいて、最先端の手法よりも大幅に改善されている。
論文 参考訳(メタデータ) (2022-12-08T03:07:00Z) - Learning to Jump from Pixels [23.17535989519855]
我々は、高度にアジャイルな視覚的誘導行動の合成法であるDepth-based Impulse Control (DIC)を提案する。
DICは、モデルフリー学習の柔軟性を提供するが、地面反応力の明示的なモデルベース最適化により、振る舞いを規則化する。
提案手法をシミュレーションと実世界の両方で評価する。
論文 参考訳(メタデータ) (2021-10-28T17:53:06Z) - Character Controllers Using Motion VAEs [9.806910643086045]
動きのvaesを用いて,人間の運動のデータ駆動生成モデルを学ぶ。
計画や制御アルゴリズムは、このアクション空間を使って望ましい動きを生成することができる。
論文 参考訳(メタデータ) (2021-03-26T05:51:41Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。