論文の概要: ArtiWorld: LLM-Driven Articulation of 3D Objects in Scenes
- arxiv url: http://arxiv.org/abs/2511.12977v1
- Date: Mon, 17 Nov 2025 04:59:21 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-18 14:36:24.66661
- Title: ArtiWorld: LLM-Driven Articulation of 3D Objects in Scenes
- Title(参考訳): ArtiWorld: シーンにおける3DオブジェクトのLLM駆動のアーティキュレーション
- Authors: Yixuan Yang, Luyang Xie, Zhen Luo, Zixiang Zhao, Mingqi Gao, Feng Zheng,
- Abstract要約: ArtiWorldは、テキストシーン記述から候補のアーティキュラブルオブジェクトをローカライズする、シーン認識パイプラインである。
このパイプラインのコアとなるArti4URDFは、3Dポイントクラウドと大規模言語モデルの事前知識を活用している。
ArtiWorldを3つのレベル(3Dシミュレーションオブジェクト、フル3Dシミュレーションシーン、実世界のスキャンシーン)で評価する。
- 参考スコア(独自算出の注目度): 45.364713144655774
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Building interactive simulators and scalable robot-learning environments requires a large number of articulated assets. However, most existing 3D assets in simulation are rigid, and manually converting them into articulated objects is extremely labor- and cost-intensive. This raises a natural question: can we automatically identify articulable objects in a scene and convert them into articulated assets directly? In this paper, we present ArtiWorld, a scene-aware pipeline that localizes candidate articulable objects from textual scene descriptions and reconstructs executable URDF models that preserve the original geometry. At the core of this pipeline is Arti4URDF, which leverages 3D point cloud, prior knowledge of a large language model (LLM), and a URDF-oriented prompt design to rapidly convert rigid objects into interactive URDF-based articulated objects while maintaining their 3D shape. We evaluate ArtiWorld at three levels: 3D simulated objects, full 3D simulated scenes, and real-world scan scenes. Across all three settings, our method consistently outperforms existing approaches and achieves state-of-the-art performance, while preserving object geometry and correctly capturing object interactivity to produce usable URDF-based articulated models. This provides a practical path toward building interactive, robot-ready simulation environments directly from existing 3D assets. Code and data will be released.
- Abstract(参考訳): 対話型シミュレータとスケーラブルなロボット学習環境を構築するには、多数の具体的な資産が必要である。
しかし、シミュレーションにおける既存の3Dアセットのほとんどは厳格であり、手動で手動で表現されたオブジェクトに変換するのは、非常に労力とコストのかかる作業である。
シーン内のアーティキュラブルなオブジェクトを自動で識別し、それらを記述されたアセットに直接変換できるだろうか?
本稿では,テキストのシーン記述から対象のアーティキュラブルオブジェクトをローカライズし,元の形状を保存するURDFモデルを再構築する,シーン認識パイプラインArtiWorldを提案する。
このパイプラインのコアとなるArti4URDFは、3Dポイントクラウド、大きな言語モデル(LLM)の事前知識、そしてURDF指向のプロンプト設計を利用して、剛体オブジェクトを3D形状を維持しながら、インタラクティブなURDFベースの関節オブジェクトに迅速に変換する。
ArtiWorldを3つのレベル(3Dシミュレーションオブジェクト、フル3Dシミュレーションシーン、実世界のスキャンシーン)で評価する。
これら3つの設定の中で,本手法は既存の手法を常に上回り,最先端の性能を実現しつつ,オブジェクトの形状を保存し,オブジェクトの相互作用性を正確に把握し,利用可能なURDFベース調音モデルを生成する。
これは、既存の3Dアセットから直接、対話的でロボット対応のシミュレーション環境を構築するための実践的な道筋を提供する。
コードとデータはリリースされます。
関連論文リスト
- CAST: Component-Aligned 3D Scene Reconstruction from an RGB Image [44.8172828045897]
現在のメソッドはドメイン固有の制限や低品質のオブジェクト生成に悩まされることが多い。
本稿では,3次元シーンの復元と復元のための新しい手法であるCASTを提案する。
論文 参考訳(メタデータ) (2025-02-18T14:29:52Z) - Articulate AnyMesh: Open-Vocabulary 3D Articulated Objects Modeling [48.78204955169967]
Articulate Anymeshは,剛性のある3Dメッシュを,オープンな語彙で表現されたものに変換可能な,自動フレームワークである。
実験の結果、Articulate Anymeshは、ツール、おもちゃ、機械装置、車両など、大規模で高品質な3D関節オブジェクトを生成できることがわかった。
論文 参考訳(メタデータ) (2025-02-04T18:59:55Z) - ROAM: Robust and Object-Aware Motion Generation Using Neural Pose
Descriptors [73.26004792375556]
本稿では,3次元オブジェクト認識キャラクタ合成における新しいシーンオブジェクトへのロバストさと一般化が,参照オブジェクトを1つも持たないモーションモデルをトレーニングすることで実現可能であることを示す。
我々は、オブジェクト専用のデータセットに基づいて訓練された暗黙的な特徴表現を活用し、オブジェクトの周りのSE(3)-同変記述体フィールドをエンコードする。
本研究では,3次元仮想キャラクタの動作と相互作用の質,および未知のオブジェクトを持つシナリオに対するロバスト性を大幅に向上することを示す。
論文 参考訳(メタデータ) (2023-08-24T17:59:51Z) - AutoDecoding Latent 3D Diffusion Models [95.7279510847827]
本稿では,3次元オートデコーダをコアとした静的・明瞭な3次元アセットの生成に対して,新しいアプローチを提案する。
3D Autodecoderフレームワークは、ターゲットデータセットから学んだプロパティを潜時空間に埋め込む。
次に、適切な中間体積潜在空間を特定し、ロバストな正規化と非正規化演算を導入する。
論文 参考訳(メタデータ) (2023-07-07T17:59:14Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。