論文の概要: REACT3D: Recovering Articulations for Interactive Physical 3D Scenes
- arxiv url: http://arxiv.org/abs/2510.11340v2
- Date: Tue, 14 Oct 2025 09:16:39 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-15 12:06:24.264051
- Title: REACT3D: Recovering Articulations for Interactive Physical 3D Scenes
- Title(参考訳): REACT3D:インタラクティブな物理3Dシーンのためのアーティキュレーションの復元
- Authors: Zhao Huang, Boyang Sun, Alexandros Delitzas, Jiaqi Chen, Marc Pollefeys,
- Abstract要約: REACT3Dは静的な3Dシーンを一貫した幾何学を持つシミュレーション可能なインタラクティブなレプリカに変換するフレームワークである。
室内の様々な場面における検出・分離・調音計測における最先端性能について検討した。
- 参考スコア(独自算出の注目度): 96.27769519526426
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Interactive 3D scenes are increasingly vital for embodied intelligence, yet existing datasets remain limited due to the labor-intensive process of annotating part segmentation, kinematic types, and motion trajectories. We present REACT3D, a scalable zero-shot framework that converts static 3D scenes into simulation-ready interactive replicas with consistent geometry, enabling direct use in diverse downstream tasks. Our contributions include: (i) openable-object detection and segmentation to extract candidate movable parts from static scenes, (ii) articulation estimation that infers joint types and motion parameters, (iii) hidden-geometry completion followed by interactive object assembly, and (iv) interactive scene integration in widely supported formats to ensure compatibility with standard simulation platforms. We achieve state-of-the-art performance on detection/segmentation and articulation metrics across diverse indoor scenes, demonstrating the effectiveness of our framework and providing a practical foundation for scalable interactive scene generation, thereby lowering the barrier to large-scale research on articulated scene understanding. Our project page is https://react3d.github.io/
- Abstract(参考訳): インタラクティブな3Dシーンは、インボディードインテリジェンスにとってますます重要になっているが、既存のデータセットは、パートセグメンテーション、キネマティックタイプ、モーショントラジェクトリのアノテートプロセスのために制限されている。
本稿では,静的な3Dシーンを一貫した形状でシミュレーション可能なインタラクティブなレプリカに変換する,スケーラブルなゼロショットフレームワークREACT3Dを提案する。
コントリビューションには以下のものがある。
(i)静的シーンから候補可動部を抽出するオープンオブジェクト検出とセグメンテーション
二 関節の種類及び運動パラメータを推定する調音推定
三 隠れ測地完了後、インタラクティブなオブジェクトアセンブリ、及び
(4) 標準的なシミュレーションプラットフォームとの互換性を確保するため、広くサポートされているフォーマットでのインタラクティブなシーン統合。
各種屋内シーンにおける検出・分離・調音計測の最先端性能を実現し,フレームワークの有効性を実証し,スケーラブルな対話型シーン生成の実践的基盤を提供することにより,調音シーン理解に関する大規模研究の障壁を低くする。
私たちのプロジェクトページはhttps://react3d.github.io/です。
関連論文リスト
- HiScene: Creating Hierarchical 3D Scenes with Isometric View Generation [50.206100327643284]
HiSceneは、2D画像生成と3Dオブジェクト生成のギャップを埋める新しい階層的なフレームワークである。
構成構造を維持しながら2次元表現に整合した3次元コンテンツを生成する。
論文 参考訳(メタデータ) (2025-04-17T16:33:39Z) - IAAO: Interactive Affordance Learning for Articulated Objects in 3D Environments [56.85804719947]
IAAOは知的エージェントのための明示的な3Dモデルを構築するフレームワークで,対話を通して環境内の明瞭な物体の理解を得る。
マスク特徴とビュー一貫性ラベルを多視点画像から抽出し,まず3次元ガウススティング(3DGS)を用いて各オブジェクト状態の階層的特徴とラベルフィールドを構築する。
次に、3Dガウスプリミティブ上でオブジェクトと部分レベルのクエリを実行し、静的および明瞭な要素を識別し、大域的な変換と局所的な調音パラメータをアベイランスとともに推定する。
論文 参考訳(メタデータ) (2025-04-09T12:36:48Z) - Articulate3D: Holistic Understanding of 3D Scenes as Universal Scene Description [56.69740649781989]
3Dシーン理解は、コンピュータビジョンにおける長年の課題であり、混合現実、ウェアラブルコンピューティング、そして具体化されたAIを実現する上で重要な要素である。
室内280のシーンに高品質な手動アノテーションを付加した専門的な3DデータセットであるArticulate3Dを紹介する。
我々はまた,部分分割を同時に予測できる新しい統一フレームワークUSDNetと,オブジェクトの動作属性の完全な仕様を提示する。
論文 参考訳(メタデータ) (2024-12-02T11:33:55Z) - AutoDecoding Latent 3D Diffusion Models [95.7279510847827]
本稿では,3次元オートデコーダをコアとした静的・明瞭な3次元アセットの生成に対して,新しいアプローチを提案する。
3D Autodecoderフレームワークは、ターゲットデータセットから学んだプロパティを潜時空間に埋め込む。
次に、適切な中間体積潜在空間を特定し、ロバストな正規化と非正規化演算を導入する。
論文 参考訳(メタデータ) (2023-07-07T17:59:14Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。