論文の概要: From Motion to Behavior: Hierarchical Modeling of Humanoid Generative Behavior Control
- arxiv url: http://arxiv.org/abs/2506.00043v1
- Date: Wed, 28 May 2025 11:21:33 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-06-04 21:47:32.084906
- Title: From Motion to Behavior: Hierarchical Modeling of Humanoid Generative Behavior Control
- Title(参考訳): 動作から行動へ:ヒューマノイド生成行動制御の階層的モデリング
- Authors: Jusheng Zhang, Jinzhou Tang, Sidi Liu, Mingyan Li, Sheng Zhang, Jian Wang, Keze Wang,
- Abstract要約: 我々は、認知科学にインスパイアされた人間の行動生成から人間の行動モデリングへと一歩前進する。
我々は,多種多様な人間の動作を多種多様な高レベルな意図によってモデル化する,生成行動制御(GBC)と呼ばれる統一的なフレームワークを提案する。
実験により、GBCはより多様で目的のある高品質な人間の動きを10*長めの地平線で生成できることが示された。
- 参考スコア(独自算出の注目度): 14.919640419576282
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Human motion generative modeling or synthesis aims to characterize complicated human motions of daily activities in diverse real-world environments. However, current research predominantly focuses on either low-level, short-period motions or high-level action planning, without taking into account the hierarchical goal-oriented nature of human activities. In this work, we take a step forward from human motion generation to human behavior modeling, which is inspired by cognitive science. We present a unified framework, dubbed Generative Behavior Control (GBC), to model diverse human motions driven by various high-level intentions by aligning motions with hierarchical behavior plans generated by large language models (LLMs). Our insight is that human motions can be jointly controlled by task and motion planning in robotics, but guided by LLMs to achieve improved motion diversity and physical fidelity. Meanwhile, to overcome the limitations of existing benchmarks, i.e., lack of behavioral plans, we propose GBC-100K dataset annotated with a hierarchical granularity of semantic and motion plans driven by target goals. Our experiments demonstrate that GBC can generate more diverse and purposeful high-quality human motions with 10* longer horizons compared with existing methods when trained on GBC-100K, laying a foundation for future research on behavioral modeling of human motions. Our dataset and source code will be made publicly available.
- Abstract(参考訳): 人間の動き生成モデリングや合成は、様々な現実世界環境における日常生活の複雑な人間の動きを特徴付けることを目的としている。
しかし、現在の研究は主に、人間の活動の階層的な目標指向の性質を考慮せずに、低レベル、短周期、高レベルな行動計画に重点を置いている。
本研究では,人間の行動生成から認知科学にインスパイアされた人間の行動モデリングへと一歩前進する。
本稿では,多言語モデル(LLM)によって生成される階層的行動計画と動きを整合させることにより,多種多様な高次意図によって駆動される多種多様な人間の動作をモデル化する,GBC(Generative Behavior Control)と呼ばれる統一的なフレームワークを提案する。
我々の洞察では、人間の動きはロボット工学におけるタスクとモーションプランニングによって共同で制御できるが、LLMによって指導され、より優れた動きの多様性と身体的忠実性を達成することができる。
一方、既存のベンチマークの限界、すなわち行動計画の欠如を克服するために、ターゲット目標によって駆動されるセマンティクスと運動計画の階層的な粒度を付加したGBC-100Kデータセットを提案する。
実験の結果,GBCは従来のGBC-100Kで訓練された方法と比較して,10*の地平線を持つ多種多様な高品質な人間の動きを生成できることが示され,人間の動きの行動モデリングに関する今後の研究の基礎が築かれた。
私たちのデータセットとソースコードは公開されます。
関連論文リスト
- GENMO: A GENeralist Model for Human MOtion [64.16188966024542]
本稿では,1つのフレームワークで動作推定と生成を橋渡しする汎用人体運動モデル GENMO を提案する。
我々の重要な洞察は、出力運動が観測された条件信号を正確に満たさなければならないような制約された動き生成として運動推定を再構成することである。
我々の新しいアーキテクチャは、可変長動きと混合マルチモーダル条件(テキスト、オーディオ、ビデオ)を異なる時間間隔で処理し、柔軟な制御を提供する。
論文 参考訳(メタデータ) (2025-05-02T17:59:55Z) - Aligning Human Motion Generation with Human Perceptions [51.831338643012444]
本研究では,大規模人間の知覚評価データセットであるMotionPerceptと,人間の動作批判モデルであるMotionCriticを導入することにより,ギャップを埋めるデータ駆動型アプローチを提案する。
我々の批評家モデルは、運動品質を評価するためのより正確な指標を提供しており、容易に運動生成パイプラインに統合することができる。
論文 参考訳(メタデータ) (2024-07-02T14:01:59Z) - Object Motion Guided Human Motion Synthesis [22.08240141115053]
大規模物体の操作におけるフルボディ人体動作合成の問題点について検討する。
条件付き拡散フレームワークであるOMOMO(Object Motion Guided Human Motion synthesis)を提案する。
我々は、操作対象物にスマートフォンを装着するだけで、全身の人間の操作動作をキャプチャする新しいシステムを開発した。
論文 参考訳(メタデータ) (2023-09-28T08:22:00Z) - Task-Oriented Human-Object Interactions Generation with Implicit Neural
Representations [61.659439423703155]
TOHO: 命令型ニューラル表現を用いたタスク指向型ヒューマンオブジェクトインタラクション生成
本手法は時間座標のみでパラメータ化される連続運動を生成する。
この研究は、一般的なヒューマン・シーンの相互作用シミュレーションに向けて一歩前進する。
論文 参考訳(メタデータ) (2023-03-23T09:31:56Z) - Task-Generic Hierarchical Human Motion Prior using VAEs [44.356707509079044]
人間の動きを記述する深い生成モデルは、幅広いコンピュータビジョンやグラフィックタスクに役立てることができる。
本稿では,グローバル・ローカル・ラテント・スペースの組み合わせを用いて,特定のタスクに依存しない複雑な人間の動作を学習する手法を提案する。
映像に基づく人間のポーズ推定を含む様々なタスクにおいて,階層的な動き変動自動エンコーダの有効性を実証する。
論文 参考訳(メタデータ) (2021-06-07T23:11:42Z) - Scene-aware Generative Network for Human Motion Synthesis [125.21079898942347]
シーンと人間の動きの相互作用を考慮した新しい枠組みを提案する。
人間の動きの不確実性を考慮すると、このタスクを生成タスクとして定式化する。
我々は、人間の動きと文脈シーンとの整合性を強制するための識別器を備えた、GANに基づく学習アプローチを導出する。
論文 参考訳(メタデータ) (2021-05-31T09:05:50Z) - Action2Motion: Conditioned Generation of 3D Human Motions [28.031644518303075]
我々は3Dで人間の動作シーケンスを生成することを目的としている。
それぞれのサンプル配列は、自然界の体動力学に忠実に類似している。
新しい3DモーションデータセットであるHumanAct12も構築されている。
論文 参考訳(メタデータ) (2020-07-30T05:29:59Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。