論文の概要: DeepCAD: A Deep Generative Network for Computer-Aided Design Models
- arxiv url: http://arxiv.org/abs/2105.09492v1
- Date: Thu, 20 May 2021 03:29:18 GMT
- ステータス: 処理完了
- システム内更新日: 2021-05-21 13:39:29.853837
- Title: DeepCAD: A Deep Generative Network for Computer-Aided Design Models
- Title(参考訳): DeepCAD: コンピュータ支援設計モデルのための深層生成ネットワーク
- Authors: Rundi Wu, Chang Xiao, Changxi Zheng
- Abstract要約: 形状をコンピュータ支援設計(CAD)操作のシーケンスとして記述した形状表現の3次元生成モデルについて述べる。
CAD操作と自然言語の類似性について,トランスフォーマーに基づくCAD生成ネットワークを提案する。
- 参考スコア(独自算出の注目度): 37.655225142981564
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Deep generative models of 3D shapes have received a great deal of research
interest. Yet, almost all of them generate discrete shape representations, such
as voxels, point clouds, and polygon meshes. We present the first 3D generative
model for a drastically different shape representation -- describing a shape as
a sequence of computer-aided design (CAD) operations. Unlike meshes and point
clouds, CAD models encode the user creation process of 3D shapes, widely used
in numerous industrial and engineering design tasks. However, the sequential
and irregular structure of CAD operations poses significant challenges for
existing 3D generative models. Drawing an analogy between CAD operations and
natural language, we propose a CAD generative network based on the Transformer.
We demonstrate the performance of our model for both shape autoencoding and
random shape generation. To train our network, we create a new CAD dataset
consisting of 179,133 models and their CAD construction sequences. We have made
this dataset publicly available to promote future research on this topic.
- Abstract(参考訳): 3次元形状の深い生成モデルは、多くの研究関心を集めている。
しかし、それらのほとんどは、ボクセル、点雲、ポリゴンメッシュなどの離散的な形状表現を生成する。
形状をcad(computer-aided design)操作のシーケンスとして表現する,大幅に異なる形状表現のための最初の3次元生成モデルを提案する。
メッシュやポイントクラウドとは異なり、CADモデルは、多くの産業や工学設計タスクで広く使われている3D形状のユーザー生成プロセスをエンコードする。
しかし,CAD操作の逐次的・不規則な構造は,既存の3次元生成モデルにとって大きな課題となる。
CAD操作と自然言語の類似性について,トランスフォーマーに基づくCAD生成ネットワークを提案する。
形状の自動エンコーディングとランダム形状生成の両方におけるモデルの性能を示す。
ネットワークをトレーニングするために、179,133モデルとそのCAD構築シーケンスからなる新しいCADデータセットを作成する。
このデータセットを公開して,今後の研究を推進しています。
関連論文リスト
- Img2CAD: Conditioned 3D CAD Model Generation from Single Image with Structured Visual Geometry [12.265852643914439]
編集可能なパラメータを生成するために2次元画像入力を用いた最初の知識であるImg2CADを提案する。
Img2CADはAI 3D再構成とCAD表現のシームレスな統合を可能にする。
論文 参考訳(メタデータ) (2024-10-04T13:27:52Z) - GenCAD: Image-Conditioned Computer-Aided Design Generation with
Transformer-Based Contrastive Representation and Diffusion Priors [4.485378844492069]
GenCADは画像入力をパラメトリックCADコマンドシーケンスに変換する生成モデルである。
生成した3次元形状の精度と変調性の観点から、既存の最先端手法を著しく上回っている。
論文 参考訳(メタデータ) (2024-09-08T23:49:11Z) - OpenECAD: An Efficient Visual Language Model for Editable 3D-CAD Design [1.481550828146527]
OpenECADモデル(0.55B, 0.89B, 2.4B, 3.1B)を作成するための事前学習モデルの微調整を行った。
OpenECADモデルは、入力として3Dデザインの画像を処理することができ、高度に構造化された2Dスケッチと3D構築コマンドを生成する。
これらの出力は、プロジェクトファイルを生成するために既存のCADツールのAPIで直接使用することができる。
論文 参考訳(メタデータ) (2024-06-14T10:47:52Z) - PS-CAD: Local Geometry Guidance via Prompting and Selection for CAD Reconstruction [86.726941702182]
再構成ネットワークPS-CADに幾何学的ガイダンスを導入する。
我々は、現在の再構成が点雲としての完備モデルと異なる曲面の幾何学を提供する。
第二に、幾何学的解析を用いて、候補面に対応する平面的プロンプトの集合を抽出する。
論文 参考訳(メタデータ) (2024-05-24T03:43:55Z) - Geometric Deep Learning for Computer-Aided Design: A Survey [85.79012726689511]
本調査では,コンピュータ支援設計における学習手法の概要について概観する。
類似性解析と検索、2Dおよび3DCADモデル合成、点雲からのCAD生成を含む。
ベンチマークデータセットとその特性の完全なリストと、この領域の研究を推進しているオープンソースコードを提供する。
論文 参考訳(メタデータ) (2024-02-27T17:11:35Z) - CAD-SIGNet: CAD Language Inference from Point Clouds using Layer-wise
Sketch Instance Guided Attention [13.227571488321358]
CADモデルの設計履歴を復元するために,エンドツーエンドでトレーニング可能な自動回帰アーキテクチャを提案する。
我々のモデルは、ポイントクラウドとCAD言語埋め込みの階層的相互注意により視覚言語表現を学習する。
CAD-SIGNetは自己回帰的な性質により、入力ポイントクラウドが与えられたCADモデルのユニークな完全な設計履歴を再構築するだけでなく、複数の可能な設計選択も提供する。
論文 参考訳(メタデータ) (2024-02-27T16:53:16Z) - Pushing Auto-regressive Models for 3D Shape Generation at Capacity and Scalability [118.26563926533517]
自己回帰モデルでは,格子空間における関節分布をモデル化することにより,2次元画像生成において顕著な結果が得られた。
自動回帰モデルを3次元領域に拡張し,キャパシティとスケーラビリティを同時に向上することにより,3次元形状生成の強力な能力を求める。
論文 参考訳(メタデータ) (2024-02-19T15:33:09Z) - Pushing the Limits of 3D Shape Generation at Scale [65.24420181727615]
我々は、前例のない次元に拡大することで、3次元形状生成において画期的なブレークスルーを示す。
現在までに最大の3次元形状生成モデルとしてArgus-3Dが確立されている。
論文 参考訳(メタデータ) (2023-06-20T13:01:19Z) - SECAD-Net: Self-Supervised CAD Reconstruction by Learning Sketch-Extrude
Operations [21.000539206470897]
SECAD-Netは、コンパクトで使いやすいCADモデルの再構築を目的とした、エンドツーエンドのニューラルネットワークである。
本研究は,CAD再構築の手法など,最先端の代替手段よりも優れていることを示す。
論文 参考訳(メタデータ) (2023-03-19T09:26:03Z) - Mask2CAD: 3D Shape Prediction by Learning to Segment and Retrieve [54.054575408582565]
本稿では,既存の3次元モデルの大規模データセットを活用し,画像中の物体の3次元構造を理解することを提案する。
本稿では,実世界の画像と検出対象を共同で検出するMask2CADについて,最も類似したCADモデルとそのポーズを最適化する。
これにより、画像内のオブジェクトのクリーンで軽量な表現が生成される。
論文 参考訳(メタデータ) (2020-07-26T00:08:37Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。