論文の概要: Text2CAD: Text to 3D CAD Generation via Technical Drawings
- arxiv url: http://arxiv.org/abs/2411.06206v1
- Date: Sat, 09 Nov 2024 15:12:06 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-11-12 14:09:27.168951
- Title: Text2CAD: Text to 3D CAD Generation via Technical Drawings
- Title(参考訳): Text2CAD: 技術図面による3次元CAD生成
- Authors: Mohsen Yavartanoo, Sangmin Hong, Reyhaneh Neshatavar, Kyoung Mu Lee,
- Abstract要約: Text2CADは、生成プロセスを自動化するために調整された安定した拡散モデルを利用する新しいフレームワークである。
テキスト2CADは,高品質な3次元CADモデルに正確に変換された技術図面を効果的に生成することを示す。
- 参考スコア(独自算出の注目度): 45.3611544056261
- License:
- Abstract: The generation of industrial Computer-Aided Design (CAD) models from user requests and specifications is crucial to enhancing efficiency in modern manufacturing. Traditional methods of CAD generation rely heavily on manual inputs and struggle with complex or non-standard designs, making them less suited for dynamic industrial needs. To overcome these challenges, we introduce Text2CAD, a novel framework that employs stable diffusion models tailored to automate the generation process and efficiently bridge the gap between user specifications in text and functional CAD models. This approach directly translates the user's textural descriptions into detailed isometric images, which are then precisely converted into orthographic views, e.g., top, front, and side, providing sufficient information to reconstruct 3D CAD models. This process not only streamlines the creation of CAD models from textual descriptions but also ensures that the resulting models uphold physical and dimensional consistency essential for practical engineering applications. Our experimental results show that Text2CAD effectively generates technical drawings that are accurately translated into high-quality 3D CAD models, showing substantial potential to revolutionize CAD automation in response to user demands.
- Abstract(参考訳): ユーザ要求や仕様からCAD(Industrial Computer-Aided Design)モデルを生成することは,現代の製造における効率向上に不可欠である。
CAD生成の伝統的な方法は手動入力に大きく依存し、複雑な設計や非標準設計に苦しむため、動的産業的ニーズには適さない。
これらの課題を克服するために,テキストのユーザ仕様と機能CADモデルのギャップを効率的に埋める,安定した拡散モデルを用いた新しいフレームワークであるText2CADを紹介した。
このアプローチは,ユーザのテクスチャ記述を詳細な等尺的画像へ直接変換し,それを正確に3DCADモデルを再構築するための十分な情報を提供する。
このプロセスは、テキスト記述からCADモデルの作成を合理化するだけでなく、実際の工学的応用に不可欠な物理的および次元的整合性も維持する。
実験の結果,Text2CADは高品質な3次元CADモデルに正確に変換された技術図面を効果的に生成し,ユーザ要求に応じてCADの自動化に革命をもたらす可能性が示唆された。
関連論文リスト
- CadVLM: Bridging Language and Vision in the Generation of Parametric CAD Sketches [24.239470848849418]
CAD(Parametric Computer-Aided Design)は、現代の機械設計の中心である。
CAD生成のためのエンド・ツー・エンドの視覚言語モデルであるCadVLMを提案する。
論文 参考訳(メタデータ) (2024-09-26T01:22:29Z) - GenCAD: Image-Conditioned Computer-Aided Design Generation with
Transformer-Based Contrastive Representation and Diffusion Priors [4.485378844492069]
GenCADは画像入力をパラメトリックCADコマンドシーケンスに変換する生成モデルである。
生成した3次元形状の精度と変調性の観点から、既存の最先端手法を著しく上回っている。
論文 参考訳(メタデータ) (2024-09-08T23:49:11Z) - OpenECAD: An Efficient Visual Language Model for Editable 3D-CAD Design [1.481550828146527]
OpenECADモデル(0.55B, 0.89B, 2.4B, 3.1B)を作成するための事前学習モデルの微調整を行った。
OpenECADモデルは、入力として3Dデザインの画像を処理することができ、高度に構造化された2Dスケッチと3D構築コマンドを生成する。
これらの出力は、プロジェクトファイルを生成するために既存のCADツールのAPIで直接使用することができる。
論文 参考訳(メタデータ) (2024-06-14T10:47:52Z) - Self-supervised Graph Neural Network for Mechanical CAD Retrieval [29.321027284348272]
GC-CADは、機械的CAD検索のための、自己教師付きコントラストグラフニューラルネットワークに基づく手法である。
提案手法は, 精度を向上し, ベースライン法よりも100倍の効率向上を実現している。
論文 参考訳(メタデータ) (2024-06-13T06:56:49Z) - Geometric Deep Learning for Computer-Aided Design: A Survey [85.79012726689511]
本調査では,コンピュータ支援設計における学習手法の概要について概観する。
類似性解析と検索、2Dおよび3DCADモデル合成、点雲からのCAD生成を含む。
ベンチマークデータセットとその特性の完全なリストと、この領域の研究を推進しているオープンソースコードを提供する。
論文 参考訳(メタデータ) (2024-02-27T17:11:35Z) - AutoCAD: Automatically Generating Counterfactuals for Mitigating
Shortcut Learning [70.70393006697383]
完全自動かつタスクに依存しないCAD生成フレームワークであるAutoCADについて述べる。
本稿では,完全に自動化されたタスクに依存しないCAD生成フレームワークであるAutoCADを提案する。
論文 参考訳(メタデータ) (2022-11-29T13:39:53Z) - GET3D: A Generative Model of High Quality 3D Textured Shapes Learned
from Images [72.15855070133425]
本稿では,複雑なトポロジ,リッチな幾何学的ディテール,高忠実度テクスチャを備えたExplicit Textured 3Dメッシュを直接生成する生成モデルであるGET3Dを紹介する。
GET3Dは、車、椅子、動物、バイク、人間キャラクターから建物まで、高品質な3Dテクスチャメッシュを生成することができる。
論文 参考訳(メタデータ) (2022-09-22T17:16:19Z) - Patch2CAD: Patchwise Embedding Learning for In-the-Wild Shape Retrieval
from a Single Image [58.953160501596805]
本稿では,2次元画像と3次元CADモデルの結合埋め込み空間をパッチワイズで構築する手法を提案する。
我々のアプローチは、CADが正確に一致しない実世界のシナリオにおける最先端技術よりも堅牢である。
論文 参考訳(メタデータ) (2021-08-20T20:58:52Z) - Mask2CAD: 3D Shape Prediction by Learning to Segment and Retrieve [54.054575408582565]
本稿では,既存の3次元モデルの大規模データセットを活用し,画像中の物体の3次元構造を理解することを提案する。
本稿では,実世界の画像と検出対象を共同で検出するMask2CADについて,最も類似したCADモデルとそのポーズを最適化する。
これにより、画像内のオブジェクトのクリーンで軽量な表現が生成される。
論文 参考訳(メタデータ) (2020-07-26T00:08:37Z) - CAD-Deform: Deformable Fitting of CAD Models to 3D Scans [30.451330075135076]
本稿では,検索したCADモデルを用いて,より高精度なCAD-to-Scanマッチングを実現するCAD-Deformを提案する。
一連の実験により,本手法はより厳密なスキャン・トゥ・CAD適合性を実現し,スキャンした実環境のより正確なデジタル複製を可能にした。
論文 参考訳(メタデータ) (2020-07-23T12:30:20Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。