論文の概要: CADDreamer: CAD object Generation from Single-view Images
- arxiv url: http://arxiv.org/abs/2502.20732v1
- Date: Fri, 28 Feb 2025 05:30:29 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-03-03 13:41:58.473541
- Title: CADDreamer: CAD object Generation from Single-view Images
- Title(参考訳): CADDreamer:シングルビュー画像からのCADオブジェクト生成
- Authors: Yuan Li, Cheng Lin, Yuan Liu, Xiaoxiao Long, Chenxu Zhang, Ningna Wang, Xin Li, Wenping Wang, Xiaohu Guo,
- Abstract要約: 既存の3D生成モデルは、しばしば過度に密度が高く非構造的なメッシュを生成する。
本稿では,CADオブジェクトの境界表現(B-rep)を単一画像から生成するための新しいアプローチであるCADDreamerを紹介する。
その結果,本手法は単視点画像から高品質CADオブジェクトを効果的に回収することを示した。
- 参考スコア(独自算出の注目度): 43.59340035126575
- License:
- Abstract: Diffusion-based 3D generation has made remarkable progress in recent years. However, existing 3D generative models often produce overly dense and unstructured meshes, which stand in stark contrast to the compact, structured, and sharply-edged Computer-Aided Design (CAD) models crafted by human designers. To address this gap, we introduce CADDreamer, a novel approach for generating boundary representations (B-rep) of CAD objects from a single image. CADDreamer employs a primitive-aware multi-view diffusion model that captures both local geometric details and high-level structural semantics during the generation process. By encoding primitive semantics into the color domain, the method leverages the strong priors of pre-trained diffusion models to align with well-defined primitives. This enables the inference of multi-view normal maps and semantic maps from a single image, facilitating the reconstruction of a mesh with primitive labels. Furthermore, we introduce geometric optimization techniques and topology-preserving extraction methods to mitigate noise and distortion in the generated primitives. These enhancements result in a complete and seamless B-rep of the CAD model. Experimental results demonstrate that our method effectively recovers high-quality CAD objects from single-view images. Compared to existing 3D generation techniques, the B-rep models produced by CADDreamer are compact in representation, clear in structure, sharp in edges, and watertight in topology.
- Abstract(参考訳): 拡散に基づく3D生成は近年顕著な進歩を遂げている。
しかし、既存の3D生成モデルは、人間デザイナーによって作られたコンパクトで構造化され、鋭く最先端のComputer-Aided Design (CAD)モデルとは対照的に、非常に密集した非構造化メッシュを生成することが多い。
そこで本研究では,CADオブジェクトの境界表現(B-rep)を単一画像から生成するための新しいアプローチであるCADDreamerを紹介する。
CADDreamerは、生成プロセス中に局所的な幾何学的詳細と高レベルの構造的セマンティクスの両方をキャプチャするプリミティブ・アウェア・マルチビュー拡散モデルを採用している。
プリミティブセマンティクスをカラー領域にエンコードすることで、事前学習された拡散モデルの強い先行をうまく定義されたプリミティブと整合させる。
これにより、単一のイメージからマルチビューの正規マップとセマンティックマップを推論することが可能になり、プリミティブラベルによるメッシュの再構築が容易になる。
さらに,生成したプリミティブの雑音や歪みを軽減するため,幾何的最適化手法と位相保存抽出手法を導入する。
これらの拡張によりCADモデルの完全かつシームレスなB-repが得られる。
実験により,本手法は単視点画像から高品質CADオブジェクトを効果的に回収することを示した。
既存の3D生成技術と比較して、CADDreamerによって生成されたB-repモデルは、表現がコンパクトで、構造が明確で、エッジが鋭く、トポロジーが水密である。
関連論文リスト
- Image2CADSeq: Computer-Aided Design Sequence and Knowledge Inference from Product Images [0.7673339435080445]
デジタルCADファイルがアクセスできないシナリオでは、リバースエンジニアリング(RE)が3DCADモデルの再構築に使われてきた。
ポイントクラウドなどの3Dデータを境界表現(B-rep)フォーマットで3Dモデルに変換することに重点を置いている。
本研究では,Image2CADSeqニューラルネットワークモデルを用いた新しいデータ駆動型アプローチを提案する。
論文 参考訳(メタデータ) (2025-01-09T02:36:21Z) - Img2CAD: Conditioned 3D CAD Model Generation from Single Image with Structured Visual Geometry [12.265852643914439]
編集可能なパラメータを生成するために2次元画像入力を用いた最初の知識であるImg2CADを提案する。
Img2CADはAI 3D再構成とCAD表現のシームレスな統合を可能にする。
論文 参考訳(メタデータ) (2024-10-04T13:27:52Z) - GenCAD: Image-Conditioned Computer-Aided Design Generation with
Transformer-Based Contrastive Representation and Diffusion Priors [4.485378844492069]
GenCADは画像入力をパラメトリックCADコマンドシーケンスに変換する生成モデルである。
生成した3次元形状の精度と変調性の観点から、既存の最先端手法を著しく上回っている。
論文 参考訳(メタデータ) (2024-09-08T23:49:11Z) - GeoLRM: Geometry-Aware Large Reconstruction Model for High-Quality 3D Gaussian Generation [65.33726478659304]
GeoLRM(Geometry-Aware Large Restruction Model)は、512kガウスと21の入力画像で11GBのGPUメモリで高品質な資産を予測できる手法である。
従来の作品では、3D構造の本質的な空間性は無視されており、3D画像と2D画像の間の明示的な幾何学的関係は利用されていない。
GeoLRMは、3Dポイントを直接処理し、変形可能なクロスアテンション機構を使用する新しい3D対応トランスフォーマー構造を導入することで、これらの問題に対処する。
論文 参考訳(メタデータ) (2024-06-21T17:49:31Z) - GeoGen: Geometry-Aware Generative Modeling via Signed Distance Functions [22.077366472693395]
単一ビューコレクションから3次元形状と画像を合成するための新しい生成手法を提案する。
ニューラルラディアンス場を用いたボリュームレンダリングを用いることで、生成した幾何学はノイズが多く、制約がないという重要な制限を継承する。
エンド・ツー・エンドで訓練された新しいSDFベースの3D生成モデルであるGeoGenを提案する。
論文 参考訳(メタデータ) (2024-06-06T17:00:10Z) - LAM3D: Large Image-Point-Cloud Alignment Model for 3D Reconstruction from Single Image [64.94932577552458]
大規模再構成モデルは、単一または複数入力画像から自動3Dコンテンツ生成の領域において大きな進歩を遂げている。
彼らの成功にもかかわらず、これらのモデルはしばしば幾何学的不正確な3Dメッシュを生成し、画像データからのみ3D形状を推論する固有の課題から生まれた。
生成した3Dメッシュの忠実度を高めるために3Dポイントクラウドデータを利用する新しいフレームワークであるLarge Image and Point Cloud Alignment Model (LAM3D)を導入する。
論文 参考訳(メタデータ) (2024-05-24T15:09:12Z) - Pushing Auto-regressive Models for 3D Shape Generation at Capacity and Scalability [118.26563926533517]
自己回帰モデルでは,格子空間における関節分布をモデル化することにより,2次元画像生成において顕著な結果が得られた。
自動回帰モデルを3次元領域に拡張し,キャパシティとスケーラビリティを同時に向上することにより,3次元形状生成の強力な能力を求める。
論文 参考訳(メタデータ) (2024-02-19T15:33:09Z) - Learning Versatile 3D Shape Generation with Improved AR Models [91.87115744375052]
自己回帰(AR)モデルはグリッド空間の関節分布をモデル化することにより2次元画像生成において印象的な結果を得た。
本稿では3次元形状生成のための改良された自己回帰モデル(ImAM)を提案する。
論文 参考訳(メタデータ) (2023-03-26T12:03:18Z) - Neural Template: Topology-aware Reconstruction and Disentangled
Generation of 3D Meshes [52.038346313823524]
本稿では,Distangled Topologyによる3次元メッシュ再構成と生成のためのDTNetという新しいフレームワークを提案する。
提案手法は,最先端の手法と比較して,特に多様なトポロジで高品質なメッシュを生成することができる。
論文 参考訳(メタデータ) (2022-06-10T08:32:57Z) - DeepCAD: A Deep Generative Network for Computer-Aided Design Models [37.655225142981564]
形状をコンピュータ支援設計(CAD)操作のシーケンスとして記述した形状表現の3次元生成モデルについて述べる。
CAD操作と自然言語の類似性について,トランスフォーマーに基づくCAD生成ネットワークを提案する。
論文 参考訳(メタデータ) (2021-05-20T03:29:18Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。