論文の概要: Human Motion Synthesis in 3D Scenes via Unified Scene Semantic Occupancy
- arxiv url: http://arxiv.org/abs/2511.07819v1
- Date: Wed, 12 Nov 2025 01:21:46 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-12 20:17:03.494296
- Title: Human Motion Synthesis in 3D Scenes via Unified Scene Semantic Occupancy
- Title(参考訳): 統一シーンセマンティック操作による3次元シーンの人間の動作合成
- Authors: Gong Jingyu, Tong Kunkun, Chen Zhuoran, Yuan Chuanhan, Chen Mingang, Zhang Zhizhong, Tan Xin, Xie Yuan,
- Abstract要約: 本研究では,シーン表現のためのSSO(Scene Semantic Occupancy)を統一した動作合成フレームワークSSOMotionを提案する。
フレームワイドシーンクエリによる動作制御命令からシーンヒントと移動方向を抽出する。
シェープネット家具を用いた散らばったシーンと、PropXとReplicaデータセットからスキャンしたシーンを比較検討し、その最先端性能を実証した。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Human motion synthesis in 3D scenes relies heavily on scene comprehension, while current methods focus mainly on scene structure but ignore the semantic understanding. In this paper, we propose a human motion synthesis framework that take an unified Scene Semantic Occupancy (SSO) for scene representation, termed SSOMotion. We design a bi-directional tri-plane decomposition to derive a compact version of the SSO, and scene semantics are mapped to an unified feature space via CLIP encoding and shared linear dimensionality reduction. Such strategy can derive the fine-grained scene semantic structures while significantly reduce redundant computations. We further take these scene hints and movement direction derived from instructions for motion control via frame-wise scene query. Extensive experiments and ablation studies conducted on cluttered scenes using ShapeNet furniture, as well as scanned scenes from PROX and Replica datasets, demonstrate its cutting-edge performance while validating its effectiveness and generalization ability. Code will be publicly available at https://github.com/jingyugong/SSOMotion.
- Abstract(参考訳): 3Dシーンにおける人間の動作合成はシーンの理解に大きく依存するが、現在の手法は主にシーン構造に焦点を絞っているが、意味的理解は無視されている。
本稿では、シーン表現のためのSSO(Scene Semantic Occupancy)を統一したモーション合成フレームワークSSOMotionを提案する。
我々は,SSOのコンパクトバージョンを導出する双方向三面体分解を設計し,CLIPエンコーディングと共有線形次元減少によるシーンセマンティクスを統一特徴空間にマッピングする。
このような戦略は、冗長な計算を著しく削減しつつ、きめ細かなシーンセマンティック構造を導出することができる。
さらに,フレームワイドシーンクエリによる動作制御の指示から,これらのシーンヒントと動き方向を抽出する。
シェープネット家具を用いた密集したシーンと, PROX と Replica のデータセットからスキャンしたシーンを用いた大規模な実験およびアブレーション実験により,その有効性と一般化能力を検証するとともに,その最先端性能を実証した。
コードはhttps://github.com/jingyugong/SSOMotion.comで公開される。
関連論文リスト
- REACT3D: Recovering Articulations for Interactive Physical 3D Scenes [96.27769519526426]
REACT3Dは静的な3Dシーンを一貫した幾何学を持つシミュレーション可能なインタラクティブなレプリカに変換するフレームワークである。
室内の様々な場面における検出・分離・調音計測における最先端性能について検討した。
論文 参考訳(メタデータ) (2025-10-13T12:37:59Z) - ReSpace: Text-Driven 3D Indoor Scene Synthesis and Editing with Preference Alignment [8.954070942391603]
ReSpaceはテキスト駆動型屋内シーン合成と編集のための生成フレームワークである。
教師付き微調整と選好アライメントを組み合わせた二段階学習手法を応用した。
シーン編集にはゼロショットLLMを用いてオブジェクトの削除と追加のプロンプトを行う。
論文 参考訳(メタデータ) (2025-06-03T05:22:04Z) - InstructScene: Instruction-Driven 3D Indoor Scene Synthesis with
Semantic Graph Prior [27.773451301040424]
InstructSceneは、セマンティックグラフとレイアウトデコーダを統合する新しい生成フレームワークである。
本稿では,提案手法が既存の最先端手法をはるかに上回ることを示す。
論文 参考訳(メタデータ) (2024-02-07T10:09:00Z) - Generating Continual Human Motion in Diverse 3D Scenes [51.90506920301473]
本研究では,3次元シーンにまたがる人間の動きを誘導するアニメーターを合成する手法を提案する。
本研究では,連続的な動作合成問題を経路に沿って歩行し,キーポイントが指定した動作の内外への遷移に分解する。
我々のモデルは、つかんだり、座ったり、傾いたりといった多様な行動の長いシーケンスを生成することができる。
論文 参考訳(メタデータ) (2023-04-04T18:24:22Z) - Semantic Scene Completion via Integrating Instances and Scene
in-the-Loop [73.11401855935726]
Semantic Scene Completionは、単一の視野深度またはRGBD画像から正確なボキセルワイズセマンティクスで完全な3Dシーンを再構築することを目指しています。
本稿では、シーンレベルのセマンティクス情報とインスタンスレベルのセマンティクス情報の両方を利用するScene-Instance-Scene Network(textitSISNet)を提案する。
本手法は, セマンティックなカテゴリが容易に混在している近傍のオブジェクトと同様に, きめ細かい形状の細部を推定できる。
論文 参考訳(メタデータ) (2021-04-08T09:50:30Z) - 3D Sketch-aware Semantic Scene Completion via Semi-supervised Structure
Prior [50.73148041205675]
セマンティック・シーン・コンプリート(SSC)タスクの目標は、単一視点で観察することで、ボリューム占有率とシーン内のオブジェクトの意味ラベルの完全な3Dボクセル表現を同時に予測することである。
低解像度のボクセル表現で深度情報を埋め込む新しい幾何学的手法を提案する。
提案手法は,SSCフレームワークからの深度特徴学習よりも有効である。
論文 参考訳(メタデータ) (2020-03-31T09:33:46Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。