論文の概要: GenCAD: Image-Conditioned Computer-Aided Design Generation with Transformer-Based Contrastive Representation and Diffusion Priors
- arxiv url: http://arxiv.org/abs/2409.16294v2
- Date: Tue, 08 Apr 2025 18:30:54 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-04-10 13:04:23.881529
- Title: GenCAD: Image-Conditioned Computer-Aided Design Generation with Transformer-Based Contrastive Representation and Diffusion Priors
- Title(参考訳): GenCAD: トランスフォーマーに基づくコントラスト表現と拡散プリミティブを用いた画像記述型コンピュータ支援設計生成
- Authors: Md Ferdous Alam, Faez Ahmed,
- Abstract要約: CAD(Computer-Aided Design)による製造可能で編集可能な3D形状の作成は、手作業と時間を要する作業である。
本稿では、画像入力をパラメトリックCADコマンドシーケンスに変換するために、コントラスト学習フレームワークと潜時拡散モデルを備えた自己回帰変換器を用いた生成モデルであるGenCADを紹介する。
- 参考スコア(独自算出の注目度): 3.796768352477804
- License:
- Abstract: The creation of manufacturable and editable 3D shapes through Computer-Aided Design (CAD) remains a highly manual and time-consuming task, hampered by the complex topology of boundary representations of 3D solids and unintuitive design tools. While most work in the 3D shape generation literature focuses on representations like meshes, voxels, or point clouds, practical engineering applications demand the modifiability and manufacturability of CAD models and the ability for multi-modal conditional CAD model generation. This paper introduces GenCAD, a generative model that employs autoregressive transformers with a contrastive learning framework and latent diffusion models to transform image inputs into parametric CAD command sequences, resulting in editable 3D shape representations. Extensive evaluations demonstrate that GenCAD significantly outperforms existing state-of-the-art methods in terms of the unconditional and conditional generations of CAD models. Additionally, the contrastive learning framework of GenCAD facilitates the retrieval of CAD models using image queries from large CAD databases, which is a critical challenge within the CAD community. Our results provide a significant step forward in highlighting the potential of generative models to expedite the entire design-to-production pipeline and seamlessly integrate different design modalities.
- Abstract(参考訳): CAD(Computer-Aided Design)による製造可能で編集可能な3D形状の作成は,3Dソリッドと非直感的デザインツールの境界表現の複雑なトポロジによって妨げられる,手作業と時間を要する作業であり続けている。
3D形状生成の文献の多くはメッシュ、ボクセル、ポイントクラウドなどの表現に焦点を当てているが、実用的なエンジニアリングアプリケーションはCADモデルのモジュール化と製造性、マルチモーダルな条件付きCADモデル生成の能力を必要としている。
本稿では、画像入力をパラメトリックCADコマンドシーケンスに変換するために、コントラスト学習フレームワークと潜時拡散モデルを備えた自己回帰変換器を用いた生成モデルGenCADを紹介し、3次元形状表現を実現する。
大規模評価の結果,GenCAD は非条件世代と条件世代で既存の最先端手法を著しく上回っていることがわかった。
さらに、GenCADの対照的な学習フレームワークは、大規模なCADデータベースからの画像クエリを用いたCADモデルの検索を容易にする。
我々の結果は、生成モデルの可能性を強調して、設計から運用までのパイプライン全体を高速化し、異なる設計モダリティをシームレスに統合する上で、大きな前進をもたらします。
関連論文リスト
- TripoSG: High-Fidelity 3D Shape Synthesis using Large-Scale Rectified Flow Models [69.0220314849478]
TripoSGは入力画像に正確に対応して高忠実度3Dメッシュを生成することができる新しいパラダイムである。
結果として得られた3D形状は、高解像度の能力によって細部を拡大し、入力した現在年齢に対して例外的な忠実さを示す。
3Dジェネレーションの分野における進歩と革新を促進するため、我々はモデルを一般公開する。
論文 参考訳(メタデータ) (2025-02-10T16:07:54Z) - Image2CADSeq: Computer-Aided Design Sequence and Knowledge Inference from Product Images [0.7673339435080445]
デジタルCADファイルがアクセスできないシナリオでは、リバースエンジニアリング(RE)が3DCADモデルの再構築に使われてきた。
ポイントクラウドなどの3Dデータを境界表現(B-rep)フォーマットで3Dモデルに変換することに重点を置いている。
本研究では,Image2CADSeqニューラルネットワークモデルを用いた新しいデータ駆動型アプローチを提案する。
論文 参考訳(メタデータ) (2025-01-09T02:36:21Z) - Text2CAD: Text to 3D CAD Generation via Technical Drawings [45.3611544056261]
Text2CADは、生成プロセスを自動化するために調整された安定した拡散モデルを利用する新しいフレームワークである。
テキスト2CADは,高品質な3次元CADモデルに正確に変換された技術図面を効果的に生成することを示す。
論文 参考訳(メタデータ) (2024-11-09T15:12:06Z) - OpenECAD: An Efficient Visual Language Model for Editable 3D-CAD Design [1.481550828146527]
OpenECADモデル(0.55B, 0.89B, 2.4B, 3.1B)を作成するための事前学習モデルの微調整を行った。
OpenECADモデルは、入力として3Dデザインの画像を処理することができ、高度に構造化された2Dスケッチと3D構築コマンドを生成する。
これらの出力は、プロジェクトファイルを生成するために既存のCADツールのAPIで直接使用することができる。
論文 参考訳(メタデータ) (2024-06-14T10:47:52Z) - Geometric Deep Learning for Computer-Aided Design: A Survey [85.79012726689511]
本調査では,コンピュータ支援設計における学習手法の概要について概観する。
類似性解析と検索、2Dおよび3DCADモデル合成、点雲からのCAD生成を含む。
ベンチマークデータセットとその特性の完全なリストと、この領域の研究を推進しているオープンソースコードを提供する。
論文 参考訳(メタデータ) (2024-02-27T17:11:35Z) - Pushing Auto-regressive Models for 3D Shape Generation at Capacity and Scalability [118.26563926533517]
自己回帰モデルでは,格子空間における関節分布をモデル化することにより,2次元画像生成において顕著な結果が得られた。
自動回帰モデルを3次元領域に拡張し,キャパシティとスケーラビリティを同時に向上することにより,3次元形状生成の強力な能力を求める。
論文 参考訳(メタデータ) (2024-02-19T15:33:09Z) - Pushing the Limits of 3D Shape Generation at Scale [65.24420181727615]
我々は、前例のない次元に拡大することで、3次元形状生成において画期的なブレークスルーを示す。
現在までに最大の3次元形状生成モデルとしてArgus-3Dが確立されている。
論文 参考訳(メタデータ) (2023-06-20T13:01:19Z) - Learning Versatile 3D Shape Generation with Improved AR Models [91.87115744375052]
自己回帰(AR)モデルはグリッド空間の関節分布をモデル化することにより2次元画像生成において印象的な結果を得た。
本稿では3次元形状生成のための改良された自己回帰モデル(ImAM)を提案する。
論文 参考訳(メタデータ) (2023-03-26T12:03:18Z) - DeepCAD: A Deep Generative Network for Computer-Aided Design Models [37.655225142981564]
形状をコンピュータ支援設計(CAD)操作のシーケンスとして記述した形状表現の3次元生成モデルについて述べる。
CAD操作と自然言語の類似性について,トランスフォーマーに基づくCAD生成ネットワークを提案する。
論文 参考訳(メタデータ) (2021-05-20T03:29:18Z) - CAD-Deform: Deformable Fitting of CAD Models to 3D Scans [30.451330075135076]
本稿では,検索したCADモデルを用いて,より高精度なCAD-to-Scanマッチングを実現するCAD-Deformを提案する。
一連の実験により,本手法はより厳密なスキャン・トゥ・CAD適合性を実現し,スキャンした実環境のより正確なデジタル複製を可能にした。
論文 参考訳(メタデータ) (2020-07-23T12:30:20Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。