論文の概要: UniArt: Unified 3D Representation for Generating 3D Articulated Objects with Open-Set Articulation
- arxiv url: http://arxiv.org/abs/2511.21887v1
- Date: Wed, 26 Nov 2025 20:09:11 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-12-01 19:47:55.285496
- Title: UniArt: Unified 3D Representation for Generating 3D Articulated Objects with Open-Set Articulation
- Title(参考訳): UniArt:オープンセットArticulationを用いた3次元Articulated Objectの生成のための統一3次元表現
- Authors: Bu Jin, Weize Li, Songen Gu, Yupeng Zheng, Yuhang Zheng, Zhengyi Zhou, Yao Yao,
- Abstract要約: UniArtは、完全な3Dオブジェクトをエンドツーエンドで単一の画像から合成する拡散ベースのフレームワークである。
本稿では,音節特徴と体積幾何学を空間的に整合させる可逆な接合-ボクセル埋め込みを提案する。
PartNet-Mobilityベンチマークの実験は、UniArtが最先端のメッシュ品質と調音精度を達成することを示した。
- 参考スコア(独自算出の注目度): 14.687459506970301
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Articulated 3D objects play a vital role in realistic simulation and embodied robotics, yet manually constructing such assets remains costly and difficult to scale. In this paper, we present UniArt, a diffusion-based framework that directly synthesizes fully articulated 3D objects from a single image in an end-to-end manner. Unlike prior multi-stage techniques, UniArt establishes a unified latent representation that jointly encodes geometry, texture, part segmentation, and kinematic parameters. We introduce a reversible joint-to-voxel embedding, which spatially aligns articulation features with volumetric geometry, enabling the model to learn coherent motion behaviors alongside structural formation. Furthermore, we formulate articulation type prediction as an open-set problem, removing the need for fixed joint semantics and allowing generalization to novel joint categories and unseen object types. Experiments on the PartNet-Mobility benchmark demonstrate that UniArt achieves state-of-the-art mesh quality and articulation accuracy.
- Abstract(参考訳): 人工的な3Dオブジェクトは、現実的なシミュレーションやロボット工学の具体化において重要な役割を担っている。
本稿では,単一の画像から完全な3Dオブジェクトを直接エンドツーエンドに合成する拡散型フレームワークUniArtを提案する。
従来の多段階技術とは異なり、UniArtは幾何学、テクスチャ、部分セグメンテーション、運動パラメータを共同でエンコードする統合潜在表現を確立する。
本研究では,空間的な調音特徴を体積幾何学と整合させ,モデルが構造形成とともにコヒーレントな動きの挙動を学習できるようにする,可逆な連接-ボクセル埋め込みを提案する。
さらに,音節型予測をオープンセット問題として定式化し,固定的な関節意味論の必要性を排除し,新しい関節カテゴリーや未知の対象型への一般化を可能にする。
PartNet-Mobilityベンチマークの実験は、UniArtが最先端のメッシュ品質と調音精度を達成することを示した。
関連論文リスト
- ArtLLM: Generating Articulated Assets via 3D LLM [19.814132638278547]
ArtLLMは、完全な3Dメッシュから直接高品質な調音資産を生成するための新しいフレームワークである。
コアとなるのは,大規模な調音データセットに基づいてトレーニングされた,3Dマルチモーダルな大規模言語モデルだ。
実験の結果,ArtLLMは部品配置精度と接合予測の両方で最先端の手法を著しく上回ることがわかった。
論文 参考訳(メタデータ) (2026-03-01T15:07:46Z) - ArtGen: Conditional Generative Modeling of Articulated Objects in Arbitrary Part-Level States [9.721009445297716]
ArtGenは、正確な幾何学とコヒーレント・キネマティクスを備えた3Dオブジェクトを生成することができる条件付き拡散ベースのフレームワークである。
具体的には、ArtGenはグローバルキネマティック一貫性を明示的に実施するために、クロスステートなMonte Carloサンプリングを使用している。
合成3D-VAE潜伏剤は局所的言語的注意に先行して強化され、微細な幾何学的関係と大域的部分的関係を効果的に捉える。
論文 参考訳(メタデータ) (2025-12-13T17:00:03Z) - Particulate: Feed-Forward 3D Object Articulation [89.78788418174946]
Particulateは、毎日のオブジェクトの1つの静的3Dメッシュが与えられたフィードフォワードアプローチであり、基盤となる関節構造のすべての属性を直接推論する。
私たちは、公開データセットから多種多様な3Dアセットの集合に基づいて、ネットワークのエンドツーエンドをトレーニングします。
推論中、Particulateはネットワークのフィードフォワード予測を入力メッシュに持ち上げ、完全に調音された3Dモデルを数秒で生成する。
論文 参考訳(メタデータ) (2025-12-12T18:59:51Z) - ArtiLatent: Realistic Articulated 3D Object Generation via Structured Latents [31.495577251319315]
ArtiLatentは、人間の作った3Dオブジェクトを精密な幾何学、正確な調音、リアルな外観で合成する生成フレームワークである。
論文 参考訳(メタデータ) (2025-10-24T13:08:15Z) - REACT3D: Recovering Articulations for Interactive Physical 3D Scenes [96.27769519526426]
REACT3Dは静的な3Dシーンを一貫した幾何学を持つシミュレーション可能なインタラクティブなレプリカに変換するフレームワークである。
室内の様々な場面における検出・分離・調音計測における最先端性能について検討した。
論文 参考訳(メタデータ) (2025-10-13T12:37:59Z) - DreamArt: Generating Interactable Articulated Objects from a Single Image [40.66232231077524]
単一視点画像から高忠実で対話可能な音響資産を生成するための新しいフレームワークであるDreamArtを紹介する。
DreamArtは、イメージ・ツー・3D生成、マスクプロンプトされた3Dセグメンテーション、そして部分アモーダル・コンプリーメントを組み合わせることで、部分セグメンテーションと完全な3Dオブジェクトメッシュを再構築する3段階のパイプラインを採用している。
実験により,DreamArtは精度の高い部分形状,外観の忠実度,可塑性調音性を有する高品質な調音オブジェクトを効果的に生成することを示した。
論文 参考訳(メタデータ) (2025-07-08T08:06:51Z) - HiScene: Creating Hierarchical 3D Scenes with Isometric View Generation [50.206100327643284]
HiSceneは、2D画像生成と3Dオブジェクト生成のギャップを埋める新しい階層的なフレームワークである。
構成構造を維持しながら2次元表現に整合した3次元コンテンツを生成する。
論文 参考訳(メタデータ) (2025-04-17T16:33:39Z) - SIGHT: Synthesizing Image-Text Conditioned and Geometry-Guided 3D Hand-Object Trajectories [124.24041272390954]
手動物体の相互作用をモデル化することは、ロボットと具体化されたAIシステムを前進させる大きな可能性を秘めている。
SIGHTは、1つの画像から現実的で物理的に妥当な3Dハンドオブジェクトインタラクショントラジェクトリを生成することに焦点を当てた,新しいタスクである。
SIGHT-Fusionは,データベースから最もよく似た3Dオブジェクトメッシュを抽出し,この課題に対処する,新しい拡散型画像文条件付き生成モデルを提案する。
論文 参考訳(メタデータ) (2025-03-28T20:53:20Z) - Articulate AnyMesh: Open-Vocabulary 3D Articulated Objects Modeling [48.78204955169967]
Articulate Anymeshは,剛性のある3Dメッシュを,オープンな語彙で表現されたものに変換可能な,自動フレームワークである。
実験の結果、Articulate Anymeshは、ツール、おもちゃ、機械装置、車両など、大規模で高品質な3D関節オブジェクトを生成できることがわかった。
論文 参考訳(メタデータ) (2025-02-04T18:59:55Z) - Object Wake-up: 3-D Object Reconstruction, Animation, and in-situ
Rendering from a Single Image [58.69732754597448]
椅子の写真があれば、椅子の3次元形状を抽出し、その可愛らしい調音や動きをアニメーション化し、元の画像空間でその場でレンダリングできるだろうか?
単一画像中の調音対象を抽出・操作するための自動アプローチを考案する。
論文 参考訳(メタデータ) (2021-08-05T16:20:12Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。