論文の概要: Text2CAD: Generating Sequential CAD Models from Beginner-to-Expert Level Text Prompts
- arxiv url: http://arxiv.org/abs/2409.17106v1
- Date: Wed, 25 Sep 2024 17:19:33 GMT
- ステータス: 処理完了
- システム内更新日: 2024-09-27 02:44:18.308563
- Title: Text2CAD: Generating Sequential CAD Models from Beginner-to-Expert Level Text Prompts
- Title(参考訳): Text2CAD:Beginner-to-Expertレベルテキストプロンプから逐次CADモデルを生成する
- Authors: Mohammad Sadil Khan, Sankalp Sinha, Talha Uddin Sheikh, Didier Stricker, Sk Aziz Ali, Muhammad Zeshan Afzal,
- Abstract要約: テキストからパラメトリックCADモデルを生成するための最初のAIフレームワークであるText2CADを提案する。
提案するフレームワークは,AI支援設計アプリケーションにおいて大きな可能性を秘めている。
- 参考スコア(独自算出の注目度): 12.63158811936688
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Prototyping complex computer-aided design (CAD) models in modern softwares can be very time-consuming. This is due to the lack of intelligent systems that can quickly generate simpler intermediate parts. We propose Text2CAD, the first AI framework for generating text-to-parametric CAD models using designer-friendly instructions for all skill levels. Furthermore, we introduce a data annotation pipeline for generating text prompts based on natural language instructions for the DeepCAD dataset using Mistral and LLaVA-NeXT. The dataset contains $\sim170$K models and $\sim660$K text annotations, from abstract CAD descriptions (e.g., generate two concentric cylinders) to detailed specifications (e.g., draw two circles with center $(x,y)$ and radius $r_{1}$, $r_{2}$, and extrude along the normal by $d$...). Within the Text2CAD framework, we propose an end-to-end transformer-based auto-regressive network to generate parametric CAD models from input texts. We evaluate the performance of our model through a mixture of metrics, including visual quality, parametric precision, and geometrical accuracy. Our proposed framework shows great potential in AI-aided design applications. Our source code and annotations will be publicly available.
- Abstract(参考訳): 現代のソフトウェアにおける複雑なコンピュータ支援設計(CAD)モデルのプロトタイプ作成には、非常に時間がかかる可能性がある。
これは、より単純な中間部品を迅速に生成できるインテリジェントシステムがないためである。
我々は,すべてのスキルレベルに対して,デザイナーフレンドリな指示を用いたテキストからパラメトリックCADモデルを生成するための,最初のAIフレームワークであるText2CADを提案する。
さらに、MistralとLLaVA-NeXTを用いて、DeepCADデータセットの自然言語命令に基づいてテキストプロンプトを生成するためのデータアノテーションパイプラインを導入する。
データセットには$\sim170$Kモデルと$\sim660$Kテキストアノテーションが含まれており、抽象CAD記述(例:2つの同心円シリンダーを生成する)から詳細な仕様(例:中央の$(x,y)$と半径の$r_{1}$、$r_{2}$の2つの円を描く、通常通り$d$...)までである。
Text2CADフレームワーク内では、入力テキストからパラメトリックCADモデルを生成するために、エンドツーエンドのトランスフォーマーベースの自動回帰ネットワークを提案する。
我々は,視覚的品質,パラメトリック精度,幾何学的精度など,様々な指標を用いてモデルの性能を評価する。
提案するフレームワークは,AI支援設計アプリケーションにおいて大きな可能性を秘めている。
ソースコードとアノテーションは公開されます。
関連論文リスト
- Text2CAD: Text to 3D CAD Generation via Technical Drawings [45.3611544056261]
Text2CADは、生成プロセスを自動化するために調整された安定した拡散モデルを利用する新しいフレームワークである。
テキスト2CADは,高品質な3次元CADモデルに正確に変換された技術図面を効果的に生成することを示す。
論文 参考訳(メタデータ) (2024-11-09T15:12:06Z) - CAD-MLLM: Unifying Multimodality-Conditioned CAD Generation With MLLM [39.113795259823476]
マルチモーダル入力に条件付きパラメトリックCADモデルを生成可能な最初のシステムであるCAD-MLLMを導入する。
先進的な大規模言語モデル (LLM) を用いて,多様なマルチモーダルデータとCADモデルのベクトル化表現に特徴空間を整合させる。
得られたデータセットはOmni-CADと呼ばれ、CADモデル毎にテキスト記述、多視点画像、ポイント、コマンドシーケンスを含む最初のマルチモーダルCADデータセットである。
論文 参考訳(メタデータ) (2024-11-07T18:31:08Z) - FlexCAD: Unified and Versatile Controllable CAD Generation with Fine-tuned Large Language Models [22.010338370150738]
ユーザ意図に基づいてコンピュータ支援デザイン(CAD)モデルを作成することへの関心が高まっている。
既存の作業は限定的な制御性を提供し、異なるタイプの制御のための別々のモデルが必要です。
大規模言語モデルを微調整した統合モデルFlexCADを提案する。
論文 参考訳(メタデータ) (2024-11-05T05:45:26Z) - Img2CAD: Conditioned 3D CAD Model Generation from Single Image with Structured Visual Geometry [12.265852643914439]
編集可能なパラメータを生成するために2次元画像入力を用いた最初の知識であるImg2CADを提案する。
Img2CADはAI 3D再構成とCAD表現のシームレスな統合を可能にする。
論文 参考訳(メタデータ) (2024-10-04T13:27:52Z) - PS-CAD: Local Geometry Guidance via Prompting and Selection for CAD Reconstruction [86.726941702182]
再構成ネットワークPS-CADに幾何学的ガイダンスを導入する。
我々は、現在の再構成が点雲としての完備モデルと異なる曲面の幾何学を提供する。
第二に、幾何学的解析を用いて、候補面に対応する平面的プロンプトの集合を抽出する。
論文 参考訳(メタデータ) (2024-05-24T03:43:55Z) - AWOL: Analysis WithOut synthesis using Language [57.31874938870305]
言語を利用して既存の3次元形状モデルを制御し、新しい形状を作り出す。
トレーニング中に存在しない新しい動物をテキストで生成できることが示されています。
この研究は、3D木を生成するための最初の言語駆動の手法でもある。
論文 参考訳(メタデータ) (2024-04-03T20:04:44Z) - Model2Scene: Learning 3D Scene Representation via Contrastive
Language-CAD Models Pre-training [105.3421541518582]
現在成功している3次元シーン認識法は、大規模アノテートされた点雲に依存している。
CAD(Computer-Aided Design)モデルと言語から自由な3Dシーン表現を学習する新しいパラダイムであるModel2Sceneを提案する。
Model2Sceneは、平均mAPが46.08%、ScanNetとS3DISのデータセットが55.49%という、ラベルなしの優れた3Dオブジェクトのサリエント検出をもたらす。
論文 参考訳(メタデータ) (2023-09-29T03:51:26Z) - SECAD-Net: Self-Supervised CAD Reconstruction by Learning Sketch-Extrude
Operations [21.000539206470897]
SECAD-Netは、コンパクトで使いやすいCADモデルの再構築を目的とした、エンドツーエンドのニューラルネットワークである。
本研究は,CAD再構築の手法など,最先端の代替手段よりも優れていることを示す。
論文 参考訳(メタデータ) (2023-03-19T09:26:03Z) - AutoCAD: Automatically Generating Counterfactuals for Mitigating
Shortcut Learning [70.70393006697383]
完全自動かつタスクに依存しないCAD生成フレームワークであるAutoCADについて述べる。
本稿では,完全に自動化されたタスクに依存しないCAD生成フレームワークであるAutoCADを提案する。
論文 参考訳(メタデータ) (2022-11-29T13:39:53Z) - GENIUS: Sketch-based Language Model Pre-training via Extreme and
Selective Masking for Text Generation and Augmentation [76.7772833556714]
本稿では,スケッチを入力として用いた条件付きテキスト生成モデルGENIUSを紹介する。
genIUSは、スケッチの目的から新しく再構築された大規模なテキストコーパスで事前訓練されている。
様々な自然言語処理(NLP)タスクに対して, GENIUS は強力かつ使いやすいデータ拡張ツールとして利用できることを示す。
論文 参考訳(メタデータ) (2022-11-18T16:39:45Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。