論文の概要: MOGRAS: Human Motion with Grasping in 3D Scenes
- arxiv url: http://arxiv.org/abs/2510.22199v1
- Date: Sat, 25 Oct 2025 07:39:02 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-28 19:54:32.504332
- Title: MOGRAS: Human Motion with Grasping in 3D Scenes
- Title(参考訳): MOGRAS:3Dシーンでのグラッピングによる人間の動き
- Authors: Kunal Bhosikar, Siddharth Katageri, Vivek Madhavaram, Kai Han, Charu Sharma,
- Abstract要約: このギャップを埋める大規模なデータセットであるMOGRAS(Human Motion with GRAsping in 3D Scenes)を紹介する。
MOGRASは、リッチな注釈付き屋内シーンで全身歩行動作と最後のグリップポーズを提供する。
本稿では,既存のアプローチを3次元シーン内でシームレスに動作させるために,シンプルで効果的な手法を提案する。
- 参考スコア(独自算出の注目度): 11.854589891738584
- License: http://creativecommons.org/licenses/by-sa/4.0/
- Abstract: Generating realistic full-body motion interacting with objects is critical for applications in robotics, virtual reality, and human-computer interaction. While existing methods can generate full-body motion within 3D scenes, they often lack the fidelity for fine-grained tasks like object grasping. Conversely, methods that generate precise grasping motions typically ignore the surrounding 3D scene. This gap, generating full-body grasping motions that are physically plausible within a 3D scene, remains a significant challenge. To address this, we introduce MOGRAS (Human MOtion with GRAsping in 3D Scenes), a large-scale dataset that bridges this gap. MOGRAS provides pre-grasping full-body walking motions and final grasping poses within richly annotated 3D indoor scenes. We leverage MOGRAS to benchmark existing full-body grasping methods and demonstrate their limitations in scene-aware generation. Furthermore, we propose a simple yet effective method to adapt existing approaches to work seamlessly within 3D scenes. Through extensive quantitative and qualitative experiments, we validate the effectiveness of our dataset and highlight the significant improvements our proposed method achieves, paving the way for more realistic human-scene interactions.
- Abstract(参考訳): オブジェクトと対話する現実的なフルボディモーションを生成することは、ロボティクス、バーチャルリアリティ、人間とコンピュータのインタラクションの応用に不可欠である。
既存の方法では3Dシーン内でフルボディの動きを生成できるが、オブジェクトの把握のような細かなタスクの忠実さに欠けることが多い。
逆に、正確な把握動作を生成する方法は、周囲の3Dシーンを無視するのが一般的である。
このギャップは、物理的に3Dシーンで実現可能な全身の握り動作を発生させるが、それでも大きな課題である。
この問題を解決するために、このギャップを埋める大規模なデータセットMOGRAS(Human Motion with GRAsping in 3D Scenes)を紹介します。
MOGRASは、3Dの室内シーンで全身歩行と最後のグルーピングのポーズを準備している。
我々はMOGRASを利用して、既存の全体把握手法をベンチマークし、シーン認識生成におけるそれらの限界を実証する。
さらに,既存のアプローチを3次元シーン内でシームレスに動作させるために,シンプルかつ効果的な手法を提案する。
大規模な定量的および定性的な実験を通じて、我々のデータセットの有効性を検証し、提案手法が達成した重要な改善を強調し、より現実的なヒューマン・シーンの相互作用の道を開く。
関連論文リスト
- Synthesizing Diverse Human Motions in 3D Indoor Scenes [16.948649870341782]
そこで本研究では,仮想人間による3次元屋内シーンの映像化手法を提案する。
既存のアプローチは、キャプチャーされた人間の動きと、それらが相互作用する3Dシーンを含むトレーニングシーケンスに依存している。
仮想人間が3Dシーンをナビゲートし、現実的かつ自律的にオブジェクトと対話できる強化学習ベースのアプローチを提案する。
論文 参考訳(メタデータ) (2023-05-21T09:22:24Z) - Generating Continual Human Motion in Diverse 3D Scenes [51.90506920301473]
本研究では,3次元シーンにまたがる人間の動きを誘導するアニメーターを合成する手法を提案する。
本研究では,連続的な動作合成問題を経路に沿って歩行し,キーポイントが指定した動作の内外への遷移に分解する。
我々のモデルは、つかんだり、座ったり、傾いたりといった多様な行動の長いシーケンスを生成することができる。
論文 参考訳(メタデータ) (2023-04-04T18:24:22Z) - CIRCLE: Capture In Rich Contextual Environments [69.97976304918149]
そこで我々は,アクターが仮想世界において知覚し,操作する新たな動き獲得システムを提案する。
9つのシーンにわたる5人の被験者から10時間のフルボディ到達動作を含むデータセットであるCIRCLEを提示する。
このデータセットを用いて、シーン情報に基づいて人間の動きを生成するモデルを訓練する。
論文 参考訳(メタデータ) (2023-03-31T09:18:12Z) - MIME: Human-Aware 3D Scene Generation [55.30202416702207]
人間の動きを3Dで再現し,室内のシーンを3Dで再現する。
人間の動きは、部屋の空き空間を示しています。
人間との接触は、座ったり、横になったり、触ったりといった活動を支援する表面や物体を指す。
論文 参考訳(メタデータ) (2022-12-08T15:56:17Z) - Learning Motion Priors for 4D Human Body Capture in 3D Scenes [81.54377747405812]
LEMO: LEMO: LEARING Human Motion priors for 4D human body capture。
提案手法では, 連続して復元されたポーズによって現れるジッタを減少させる新規な動きを事前に導入する。
また, 接触摩擦項と, 物体ごとの自己監督訓練により得られる接触認識運動充填剤を設計した。
パイプラインでは、高品質な4D人体撮影、スムーズな動きの再構築、身体とシーンの相互作用を実演しています。
論文 参考訳(メタデータ) (2021-08-23T20:47:09Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。