論文の概要: Prime and Reach: Synthesising Body Motion for Gaze-Primed Object Reach
- arxiv url: http://arxiv.org/abs/2512.16456v1
- Date: Thu, 18 Dec 2025 12:21:17 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-12-19 18:10:32.049861
- Title: Prime and Reach: Synthesising Body Motion for Gaze-Primed Object Reach
- Title(参考訳): Prime and Reach: Gaze-Primed Object Reachのためのボディモーションの合成
- Authors: Masashi Hatano, Saptarshi Sinha, Jacob Chalk, Wei-Hong Li, Hideo Saito, Dima Damen,
- Abstract要約: 公開されている5つのデータセットから対象物の位置に到達するために、23.7Kの視線で作られた人間の動きシーケンスを作成します。
いくつかの指標を用いて,自然運動を模倣する動作の能力を評価する。
- 参考スコア(独自算出の注目度): 30.4054270865456
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Human motion generation is a challenging task that aims to create realistic motion imitating natural human behaviour. We focus on the well-studied behaviour of priming an object/location for pick up or put down -- that is, the spotting of an object/location from a distance, known as gaze priming, followed by the motion of approaching and reaching the target location. To that end, we curate, for the first time, 23.7K gaze-primed human motion sequences for reaching target object locations from five publicly available datasets, i.e., HD-EPIC, MoGaze, HOT3D, ADT, and GIMO. We pre-train a text-conditioned diffusion-based motion generation model, then fine-tune it conditioned on goal pose or location, on our curated sequences. Importantly, we evaluate the ability of the generated motion to imitate natural human movement through several metrics, including the 'Reach Success' and a newly introduced 'Prime Success' metric. On the largest dataset, HD-EPIC, our model achieves 60% prime success and 89% reach success when conditioned on the goal object location.
- Abstract(参考訳): 人間の動きの生成は、人間の振る舞いを模倣する現実的な動きを作り出すことを目的としている。
我々は、拾い上げや降ろすために物体/位置をプライミングする、よく研究された行動に焦点を当てる。つまり、ガゼプリミングとして知られる距離から物体/位置をスポットし、続いてターゲットの位置に接近して到達する動きに焦点をあてる。
そこで我々は,HD-EPIC, MoGaze, HOT3D, ADT, GIMOの5つの公開データセットから対象物の位置に到達するために,初めて23.7Kのヒトの動き列をキュレートした。
テキスト条件の拡散に基づく動き生成モデルを事前学習し、それを目標ポーズや位置で調整し、キュレートしたシーケンスで微調整する。
ここでは, 自然運動を模倣する動作の能力について, 「到達成功」や新たに導入された「素成功」など, 様々な指標を用いて評価する。
最大のデータセットであるHD-EPICでは,目標オブジェクト位置で条件付きで60%の成功率と89%の成功率を達成した。
関連論文リスト
- ResMimic: From General Motion Tracking to Humanoid Whole-body Loco-Manipulation via Residual Learning [59.64325421657381]
ヒューマノイド全体のロコ操作は、日々のサービスや倉庫のタスクにトランスフォーメーション機能を約束する。
ResMimicは、人間の動作データから正確に表現力のあるヒューマノイド制御のための2段階の残差学習フレームワークである。
結果は、強いベースラインよりもタスク成功、トレーニング効率、堅牢性が大幅に向上したことを示している。
論文 参考訳(メタデータ) (2025-10-06T17:47:02Z) - Target Pose Guided Whole-body Grasping Motion Generation for Digital Humans [8.741075482543991]
本稿では,デジタル人間のための把握動作生成フレームワークを提案する。
我々はまず,オフザシェルフ目標把握ポーズ生成法に基づいて,全身デジタル人間のターゲットポーズを生成する。
最初のポーズとこの生成されたターゲットポーズで、トランスフォーマーベースのニューラルネットワークを使用して、把握軌道全体を生成する。
論文 参考訳(メタデータ) (2024-09-26T05:43:23Z) - WANDR: Intention-guided Human Motion Generation [67.07028110459787]
我々は,アバターの初期ポーズとゴールの3D位置を取り,ゴール位置にエンドエフェクタ(抵抗)を配置する自然な人間の動きを生成するデータ駆動モデルであるWADRを紹介する。
インテンションはエージェントをゴールに誘導し、サブゴールやモーションパス全体を定義することなく、新しい状況にインタラクティブに世代を適応させる。
提案手法を広範に評価し,3次元目標に到達した自然および長期の動作と,見当たらない目標位置を生成できることを実証する。
論文 参考訳(メタデータ) (2024-04-23T10:20:17Z) - Universal Humanoid Motion Representations for Physics-Based Control [71.46142106079292]
物理学に基づくヒューマノイド制御のための総合的な運動スキルを含む普遍的な運動表現を提案する。
まず、大きな非構造運動データセットから人間の動きをすべて模倣できる動き模倣機を学習する。
次に、模倣者から直接スキルを蒸留することで、動作表現を作成します。
論文 参考訳(メタデータ) (2023-10-06T20:48:43Z) - Task-Oriented Human-Object Interactions Generation with Implicit Neural
Representations [61.659439423703155]
TOHO: 命令型ニューラル表現を用いたタスク指向型ヒューマンオブジェクトインタラクション生成
本手法は時間座標のみでパラメータ化される連続運動を生成する。
この研究は、一般的なヒューマン・シーンの相互作用シミュレーションに向けて一歩前進する。
論文 参考訳(メタデータ) (2023-03-23T09:31:56Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。