論文の概要: Image2CADSeq: Computer-Aided Design Sequence and Knowledge Inference from Product Images
- arxiv url: http://arxiv.org/abs/2501.04928v1
- Date: Thu, 09 Jan 2025 02:36:21 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-01-10 14:00:29.388805
- Title: Image2CADSeq: Computer-Aided Design Sequence and Knowledge Inference from Product Images
- Title(参考訳): 画像2CADSeq: 製品画像からのコンピュータ支援デザインシーケンスと知識推論
- Authors: Xingang Li, Zhenghui Sha,
- Abstract要約: デジタルCADファイルがアクセスできないシナリオでは、リバースエンジニアリング(RE)が3DCADモデルの再構築に使われてきた。
ポイントクラウドなどの3Dデータを境界表現(B-rep)フォーマットで3Dモデルに変換することに重点を置いている。
本研究では,Image2CADSeqニューラルネットワークモデルを用いた新しいデータ駆動型アプローチを提案する。
- 参考スコア(独自算出の注目度): 0.7673339435080445
- License:
- Abstract: Computer-aided design (CAD) tools empower designers to design and modify 3D models through a series of CAD operations, commonly referred to as a CAD sequence. In scenarios where digital CAD files are not accessible, reverse engineering (RE) has been used to reconstruct 3D CAD models. Recent advances have seen the rise of data-driven approaches for RE, with a primary focus on converting 3D data, such as point clouds, into 3D models in boundary representation (B-rep) format. However, obtaining 3D data poses significant challenges, and B-rep models do not reveal knowledge about the 3D modeling process of designs. To this end, our research introduces a novel data-driven approach with an Image2CADSeq neural network model. This model aims to reverse engineer CAD models by processing images as input and generating CAD sequences. These sequences can then be translated into B-rep models using a solid modeling kernel. Unlike B-rep models, CAD sequences offer enhanced flexibility to modify individual steps of model creation, providing a deeper understanding of the construction process of CAD models. To quantitatively and rigorously evaluate the predictive performance of the Image2CADSeq model, we have developed a multi-level evaluation framework for model assessment. The model was trained on a specially synthesized dataset, and various network architectures were explored to optimize the performance. The experimental and validation results show great potential for the model in generating CAD sequences from 2D image data.
- Abstract(参考訳): CAD(Computer-Aided Design)は、CADの一連の操作を通じて3Dモデルを設計・修正することを可能にするツールである。
デジタルCADファイルがアクセスできないシナリオでは、リバースエンジニアリング(RE)が3DCADモデルの再構築に使われてきた。
ポイントクラウドなどの3Dデータを境界表現(B-rep)フォーマットで3Dモデルに変換することに重点を置いている。
しかし、3Dデータを取得することは大きな課題となり、B-repモデルは設計の3Dモデリングプロセスに関する知識を明らかにしない。
そこで本研究では,Image2CADSeqニューラルネットワークモデルを用いた新しいデータ駆動型アプローチを提案する。
本モデルは,CAD シーケンスを入力として処理し,CAD シーケンスを生成することにより,CAD モデルをリバースエンジニアリングすることを目的としている。
これらのシーケンスは、固体モデリングカーネルを使用してB-repモデルに変換できる。
B-repモデルとは異なり、CADシーケンスは、モデル生成の個々のステップを変更する柔軟性を向上し、CADモデルの構築プロセスのより深い理解を提供する。
画像2CADSeqモデルの予測性能を定量的かつ厳密に評価するために,モデル評価のための多段階評価フレームワークを開発した。
モデルは特別に合成されたデータセットで訓練され、性能を最適化するために様々なネットワークアーキテクチャが探索された。
実験および検証結果は、2次元画像データからCADシーケンスを生成する際のモデルに大きな可能性を示す。
関連論文リスト
- Text2CAD: Text to 3D CAD Generation via Technical Drawings [45.3611544056261]
Text2CADは、生成プロセスを自動化するために調整された安定した拡散モデルを利用する新しいフレームワークである。
テキスト2CADは,高品質な3次元CADモデルに正確に変換された技術図面を効果的に生成することを示す。
論文 参考訳(メタデータ) (2024-11-09T15:12:06Z) - Img2CAD: Conditioned 3D CAD Model Generation from Single Image with Structured Visual Geometry [12.265852643914439]
編集可能なパラメータを生成するために2次元画像入力を用いた最初の知識であるImg2CADを提案する。
Img2CADはAI 3D再構成とCAD表現のシームレスな統合を可能にする。
論文 参考訳(メタデータ) (2024-10-04T13:27:52Z) - OpenECAD: An Efficient Visual Language Model for Editable 3D-CAD Design [1.481550828146527]
OpenECADモデル(0.55B, 0.89B, 2.4B, 3.1B)を作成するための事前学習モデルの微調整を行った。
OpenECADモデルは、入力として3Dデザインの画像を処理することができ、高度に構造化された2Dスケッチと3D構築コマンドを生成する。
これらの出力は、プロジェクトファイルを生成するために既存のCADツールのAPIで直接使用することができる。
論文 参考訳(メタデータ) (2024-06-14T10:47:52Z) - PS-CAD: Local Geometry Guidance via Prompting and Selection for CAD Reconstruction [86.726941702182]
再構成ネットワークPS-CADに幾何学的ガイダンスを導入する。
我々は、現在の再構成が点雲としての完備モデルと異なる曲面の幾何学を提供する。
第二に、幾何学的解析を用いて、候補面に対応する平面的プロンプトの集合を抽出する。
論文 参考訳(メタデータ) (2024-05-24T03:43:55Z) - Pushing Auto-regressive Models for 3D Shape Generation at Capacity and Scalability [118.26563926533517]
自己回帰モデルでは,格子空間における関節分布をモデル化することにより,2次元画像生成において顕著な結果が得られた。
自動回帰モデルを3次元領域に拡張し,キャパシティとスケーラビリティを同時に向上することにより,3次元形状生成の強力な能力を求める。
論文 参考訳(メタデータ) (2024-02-19T15:33:09Z) - Patch2CAD: Patchwise Embedding Learning for In-the-Wild Shape Retrieval
from a Single Image [58.953160501596805]
本稿では,2次元画像と3次元CADモデルの結合埋め込み空間をパッチワイズで構築する手法を提案する。
我々のアプローチは、CADが正確に一致しない実世界のシナリオにおける最先端技術よりも堅牢である。
論文 参考訳(メタデータ) (2021-08-20T20:58:52Z) - 'CADSketchNet' -- An Annotated Sketch dataset for 3D CAD Model Retrieval
with Deep Neural Networks [0.8155575318208631]
本稿では,ディープラーニングに基づく3次元CADモデルの検索システム構築に適したデータセットの開発を目的とする。
また,スケッチ画像を入力クエリとして受信する3次元CADモデルの検索システムや検索エンジンの性能を評価することを目的とする。
論文 参考訳(メタデータ) (2021-07-13T16:10:16Z) - DeepCAD: A Deep Generative Network for Computer-Aided Design Models [37.655225142981564]
形状をコンピュータ支援設計(CAD)操作のシーケンスとして記述した形状表現の3次元生成モデルについて述べる。
CAD操作と自然言語の類似性について,トランスフォーマーに基づくCAD生成ネットワークを提案する。
論文 参考訳(メタデータ) (2021-05-20T03:29:18Z) - Generative VoxelNet: Learning Energy-Based Models for 3D Shape Synthesis
and Analysis [143.22192229456306]
本稿では,体積形状を表す3次元エネルギーモデルを提案する。
提案モデルの利点は6倍である。
実験により,提案モデルが高品質な3d形状パターンを生成できることが実証された。
論文 参考訳(メタデータ) (2020-12-25T06:09:36Z) - Mask2CAD: 3D Shape Prediction by Learning to Segment and Retrieve [54.054575408582565]
本稿では,既存の3次元モデルの大規模データセットを活用し,画像中の物体の3次元構造を理解することを提案する。
本稿では,実世界の画像と検出対象を共同で検出するMask2CADについて,最も類似したCADモデルとそのポーズを最適化する。
これにより、画像内のオブジェクトのクリーンで軽量な表現が生成される。
論文 参考訳(メタデータ) (2020-07-26T00:08:37Z) - CAD-Deform: Deformable Fitting of CAD Models to 3D Scans [30.451330075135076]
本稿では,検索したCADモデルを用いて,より高精度なCAD-to-Scanマッチングを実現するCAD-Deformを提案する。
一連の実験により,本手法はより厳密なスキャン・トゥ・CAD適合性を実現し,スキャンした実環境のより正確なデジタル複製を可能にした。
論文 参考訳(メタデータ) (2020-07-23T12:30:20Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。