論文の概要: BoxSplitGen: A Generative Model for 3D Part Bounding Boxes in Varying Granularity
- arxiv url: http://arxiv.org/abs/2602.20666v1
- Date: Tue, 24 Feb 2026 08:15:25 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-25 17:34:53.669495
- Title: BoxSplitGen: A Generative Model for 3D Part Bounding Boxes in Varying Granularity
- Title(参考訳): BoxSplitGen: 粒度の異なる3次元部品境界ボックスの生成モデル
- Authors: Juil Koo, Wei-Tung Lin, Chanho Park, Chanhyeok Park, Minhyuk Sung,
- Abstract要約: 本稿では,境界ボックスの繰り返し分割による直感的でインタラクティブな3次元形状生成を実現するフレームワークを提案する。
BoxSplitGenと名付けられた最初のモデルは、粒度の異なる3D部分境界ボックスのコレクションを生成する。
第2のモデルであるボックス・ツー・シェイプ生成モデルは、既存の3次元拡散モデルで学習された3次元形状の先行モデルを活用することで訓練される。
- 参考スコア(独自算出の注目度): 30.418911960500555
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Human creativity follows a perceptual process, moving from abstract ideas to finer details during creation. While 3D generative models have advanced dramatically, models specifically designed to assist human imagination in 3D creation -- particularly for detailing abstractions from coarse to fine -- have not been explored. We propose a framework that enables intuitive and interactive 3D shape generation by iteratively splitting bounding boxes to refine the set of bounding boxes. The main technical components of our framework are two generative models: the box-splitting generative model and the box-to-shape generative model. The first model, named BoxSplitGen, generates a collection of 3D part bounding boxes with varying granularity by iteratively splitting coarse bounding boxes. It utilizes part bounding boxes created through agglomerative merging and learns the reverse of the merging process -- the splitting sequences. The model consists of two main components: the first learns the categorical distribution of the box to be split, and the second learns the distribution of the two new boxes, given the set of boxes and the indication of which box to split. The second model, the box-to-shape generative model, is trained by leveraging the 3D shape priors learned by an existing 3D diffusion model while adapting the model to incorporate bounding box conditioning. In our experiments, we demonstrate that the box-splitting generative model outperforms token prediction models and the inpainting approach with an unconditional diffusion model. Also, we show that our box-to-shape model, based on a state-of-the-art 3D diffusion model, provides superior results compared to a previous model.
- Abstract(参考訳): 人間の創造性は、抽象的なアイデアから創造中に細部まで、知覚的なプロセスに従います。
3D生成モデルは劇的に進歩しているが、3D生成における人間の想像力(特に粗いものから細かいものまで)を支援するために特別に設計されたモデルは研究されていない。
本研究では,境界ボックスを反復分割することで,直感的でインタラクティブな3次元形状生成を可能にし,境界ボックスの集合を洗練させるフレームワークを提案する。
本フレームワークの主な技術要素は,ボックス分割生成モデルとボックス分割生成モデルという2つの生成モデルである。
BoxSplitGenと名付けられた最初のモデルは、粗いバウンディングボックスを反復的に分割することで、粒度の異なる3D部分バウンディングボックスのコレクションを生成する。
集約的なマージによって生成された部分境界ボックスを使用し、マージプロセスの逆(分割シーケンス)を学ぶ。
モデルは2つの主要なコンポーネントから構成される: 第一は分割されるボックスの分類的分布を学習し、第二は分割されるボックスのセットとどのボックスの表示を与えられたかという2つの新しいボックスの分布を学習する。
第2のモデルであるボックス・ツー・シェイプ生成モデルは、既存の3次元拡散モデルで学習された3次元形状の先行をモデルに適応させ、バウンディングボックス条件を組み込むことによって訓練される。
実験では,ボックス分割生成モデルがトークン予測モデルおよび非条件拡散モデルによる塗装アプローチより優れていることを示した。
また,最先端3次元拡散モデルに基づくボックス・ツー・シェイプモデルにより,従来のモデルよりも優れた結果が得られることを示す。
関連論文リスト
- PASTA: Controllable Part-Aware Shape Generation with Autoregressive Transformers [5.7181794813117754]
PASTAは、高品質な3D形状を生成する自動回帰トランスフォーマーアーキテクチャである。
我々のモデルは、既存のパートベースおよび非パートベース手法よりも現実的で多様な3D形状を生成する。
論文 参考訳(メタデータ) (2024-07-18T16:52:45Z) - Pushing Auto-regressive Models for 3D Shape Generation at Capacity and Scalability [118.26563926533517]
自己回帰モデルでは,格子空間における関節分布をモデル化することにより,2次元画像生成において顕著な結果が得られた。
自動回帰モデルを3次元領域に拡張し,キャパシティとスケーラビリティを同時に向上することにより,3次元形状生成の強力な能力を求める。
論文 参考訳(メタデータ) (2024-02-19T15:33:09Z) - Breathing New Life into 3D Assets with Generative Repainting [74.80184575267106]
拡散ベースのテキスト・ツー・イメージ・モデルは、ビジョン・コミュニティ、アーティスト、コンテンツ・クリエーターから大きな注目を集めた。
近年の研究では、拡散モデルとニューラルネットワークの絡み合いを利用した様々なパイプラインが提案されている。
予備訓練された2次元拡散モデルと標準3次元ニューラルラジアンスフィールドのパワーを独立したスタンドアロンツールとして検討する。
我々のパイプラインはテクスチャ化されたメッシュや無テクスチャのメッシュのような、レガシなレンダリング可能な幾何学を受け入れ、2D生成の洗練と3D整合性強化ツール間の相互作用をオーケストレーションします。
論文 参考訳(メタデータ) (2023-09-15T16:34:51Z) - Sin3DM: Learning a Diffusion Model from a Single 3D Textured Shape [46.31314488932164]
Sin3DMは1つの3次元テクスチャ形状から内部パッチ分布を学習する拡散モデルである。
提案手法は, 3次元形状の生成品質において, 従来の手法よりも優れていることを示す。
論文 参考訳(メタデータ) (2023-05-24T17:57:15Z) - Locally Attentional SDF Diffusion for Controllable 3D Shape Generation [24.83724829092307]
本研究では,2次元スケッチ画像入力を用いて3次元形状をモデル化する拡散型3次元生成フレームワークを提案する。
本手法は, 2段階拡散モデルを用いて構築され, その第1段階である占有拡散は, 低分解能占有場を生成し, 形状シェルを近似することを目的としている。
SDF拡散と呼ばれる第2段階は、第1段階によって決定された占有ボクセル内の高分解能符号距離場を合成し、微細な幾何を抽出する。
論文 参考訳(メタデータ) (2023-05-08T05:07:23Z) - HoloDiffusion: Training a 3D Diffusion Model using 2D Images [71.1144397510333]
我々は,2次元画像のみを監督のために配置した,エンドツーエンドでトレーニング可能な新しい拡散装置を導入する。
我々の拡散モデルはスケーラブルで、頑健に訓練されており、既存の3次元生成モデルへのアプローチに対して、サンプルの品質と忠実さの点で競争力があることを示す。
論文 参考訳(メタデータ) (2023-03-29T07:35:56Z) - Learning Versatile 3D Shape Generation with Improved AR Models [91.87115744375052]
自己回帰(AR)モデルはグリッド空間の関節分布をモデル化することにより2次元画像生成において印象的な結果を得た。
本稿では3次元形状生成のための改良された自己回帰モデル(ImAM)を提案する。
論文 参考訳(メタデータ) (2023-03-26T12:03:18Z) - 3D Neural Field Generation using Triplane Diffusion [37.46688195622667]
ニューラルネットワークの3次元認識のための効率的な拡散ベースモデルを提案する。
当社のアプローチでは,ShapeNetメッシュなどのトレーニングデータを,連続的占有フィールドに変換することによって前処理する。
本論文では,ShapeNetのオブジェクトクラスにおける3D生成の現状について述べる。
論文 参考訳(メタデータ) (2022-11-30T01:55:52Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。