論文の概要: Image2Gcode: Image-to-G-code Generation for Additive Manufacturing Using Diffusion-Transformer Model
- arxiv url: http://arxiv.org/abs/2511.20636v1
- Date: Tue, 25 Nov 2025 18:55:12 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-26 17:37:04.63662
- Title: Image2Gcode: Image-to-G-code Generation for Additive Manufacturing Using Diffusion-Transformer Model
- Title(参考訳): Image2Gcode:拡散変圧器モデルを用いた添加物製造のための画像からGコード生成
- Authors: Ziyue Wang, Yayati Jadhav, Peter Pak, Amir Barati Farimani,
- Abstract要約: Image2GcodeはCADステージをバイパスし、画像や部分描画から直接プリンタ対応のGコードを生成するエンドツーエンドのデータ駆動フレームワークである。
2D画像から直接構造化Gコードを生成することにより、CADやSTL中間体の必要性をなくすことができる。
このアプローチは、単純なスケッチやビジュアル参照からのオンデマンドプロトタイピングをサポートし、上流2D-to-3D再構築モジュールと統合する。
- 参考スコア(独自算出の注目度): 12.234305087633173
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Mechanical design and manufacturing workflows conventionally begin with conceptual design, followed by the creation of a computer-aided design (CAD) model and fabrication through material-extrusion (MEX) printing. This process requires converting CAD geometry into machine-readable G-code through slicing and path planning. While each step is well established, dependence on CAD modeling remains a major bottleneck: constructing object-specific 3D geometry is slow and poorly suited to rapid prototyping. Even minor design variations typically necessitate manual updates in CAD software, making iteration time-consuming and difficult to scale. To address this limitation, we introduce Image2Gcode, an end-to-end data-driven framework that bypasses the CAD stage and generates printer-ready G-code directly from images and part drawings. Instead of relying on an explicit 3D model, a hand-drawn or captured 2D image serves as the sole input. The framework first extracts slice-wise structural cues from the image and then employs a denoising diffusion probabilistic model (DDPM) over G-code sequences. Through iterative denoising, the model transforms Gaussian noise into executable print-move trajectories with corresponding extrusion parameters, establishing a direct mapping from visual input to native toolpaths. By producing structured G-code directly from 2D imagery, Image2Gcode eliminates the need for CAD or STL intermediates, lowering the entry barrier for additive manufacturing and accelerating the design-to-fabrication cycle. This approach supports on-demand prototyping from simple sketches or visual references and integrates with upstream 2D-to-3D reconstruction modules to enable an automated pipeline from concept to physical artifact. The result is a flexible, computationally efficient framework that advances accessibility in design iteration, repair workflows, and distributed manufacturing.
- Abstract(参考訳): 機械設計と製造のワークフローは、伝統的に概念設計から始まり、続いてコンピュータ支援設計(CAD)モデルの作成と材料押出(MEX)印刷による製造が行われた。
このプロセスではCAD幾何をスライスと経路計画を通じて機械可読Gコードに変換する必要がある。
各ステップは確立されているが、CADモデリングへの依存は依然として大きなボトルネックであり、オブジェクト固有の3D幾何学の構築は遅く、高速なプロトタイピングには適していない。
マイナーな設計のバリエーションでさえ、CADソフトウェアで手動のアップデートが必要なため、イテレーションの時間がかかり、スケールが難しくなる。
この制限に対処するために、CADステージをバイパスし、画像や部分描画から直接プリンタ対応のGコードを生成するエンドツーエンドのデータ駆動フレームワークであるImage2Gcodeを紹介する。
明示的な3Dモデルに頼る代わりに、手書きまたはキャプチャされた2D画像が唯一の入力として機能する。
このフレームワークはまず画像からスライス的に構造的手がかりを抽出し,G符号列上の拡散確率モデル(DDPM)を用いる。
反復 denoising を通じて、モデルはガウスノイズを対応する押出パラメータを持つ実行可能なプリントモーブ軌跡に変換することで、視覚入力からネイティブツールパスへの直接マッピングを確立する。
2D画像から直接構造化Gコードを生成することにより、CADまたはSTL中間体の必要性を排除し、追加製造の参入障壁を低くし、設計からファブリケーションサイクルを加速する。
このアプローチは、単純なスケッチやビジュアル参照からのオンデマンドプロトタイピングをサポートし、上流2Dから3Dへの再構築モジュールを統合して、概念から物理的なアーティファクトへの自動パイプラインを可能にする。
その結果、フレキシブルで計算効率のよいフレームワークがデザインイテレーション、ワークフローの修復、分散製造においてアクセシビリティを向上させる。
関連論文リスト
- PercHead: Perceptual Head Model for Single-Image 3D Head Reconstruction & Editing [51.56943889042673]
PercHeadは、シングルイメージの3Dヘッド再構成とセマンティック3D編集のための方法である。
単一の入力画像からビュー一貫性を持つ3Dヘッドを再構成するための統一ベースモデルを開発する。
軽量でインタラクティブなGUIを通して、直感的で強力な3D編集機能を強調します。
論文 参考訳(メタデータ) (2025-11-04T17:59:15Z) - Drawing2CAD: Sequence-to-Sequence Learning for CAD Generation from Vector Drawings [13.135028604324754]
CAD(Computer-Aided Design)生成モデリングは、産業アプリケーション全体で重要なイノベーションを導いている。
最近の研究は、ポイントクラウド、メッシュ、テキスト記述など、さまざまな入力からソリッドモデルを作成する際に顕著な進歩を見せている。
これらの手法は、2次元のエンジニアリング図面から始まる伝統的な産業図面と根本的に異なる。
これらの2次元ベクトル描画からパラメトリックCADモデルの自動生成は、エンジニアリング設計における重要なステップであるにもかかわらず、まだ探索されていない。
論文 参考訳(メタデータ) (2025-08-26T07:01:58Z) - CADCrafter: Generating Computer-Aided Design Models from Unconstrained Images [69.7768227804928]
CADCrafterは画像からパラメトリックCADモデル生成フレームワークで、合成テクスチャなしCADデータのみをトレーニングする。
多様な幾何学的特徴を正確に捉えるための幾何エンコーダを導入する。
提案手法は、実際の制約のないCADイメージを頑健に処理でき、また、目に見えない汎用オブジェクトにも一般化できる。
論文 参考訳(メタデータ) (2025-04-07T06:01:35Z) - GenCAD: Image-Conditioned Computer-Aided Design Generation with Transformer-Based Contrastive Representation and Diffusion Priors [3.796768352477804]
CAD(Computer-Aided Design)による製造可能で編集可能な3D形状の作成は、手作業と時間を要する作業である。
本稿では、画像入力をパラメトリックCADコマンドシーケンスに変換するために、コントラスト学習フレームワークと潜時拡散モデルを備えた自己回帰変換器を用いた生成モデルであるGenCADを紹介する。
論文 参考訳(メタデータ) (2024-09-08T23:49:11Z) - Img2CAD: Reverse Engineering 3D CAD Models from Images through VLM-Assisted Conditional Factorization [29.177153478213366]
画像からのリバースエンジニアリング3Dコンピュータ支援設計(CAD)モデルは、多くのダウンストリームアプリケーションにとって重要な課題である。
本研究では,タスクを2つのサブプロブレムに条件付き分解する手法を提案する。
本稿では,個別構造にセマンティクスを組み込んだTrAssemblerを提案し,連続的な属性値を予測する。
論文 参考訳(メタデータ) (2024-07-19T06:53:30Z) - GeoLRM: Geometry-Aware Large Reconstruction Model for High-Quality 3D Gaussian Generation [65.33726478659304]
GeoLRM(Geometry-Aware Large Restruction Model)は、512kガウスと21の入力画像で11GBのGPUメモリで高品質な資産を予測できる手法である。
従来の作品では、3D構造の本質的な空間性は無視されており、3D画像と2D画像の間の明示的な幾何学的関係は利用されていない。
GeoLRMは、3Dポイントを直接処理し、変形可能なクロスアテンション機構を使用する新しい3D対応トランスフォーマー構造を導入することで、これらの問題に対処する。
論文 参考訳(メタデータ) (2024-06-21T17:49:31Z) - 3D-GPT: Procedural 3D Modeling with Large Language Models [47.72968643115063]
命令駆動3Dモデリングのための大規模言語モデル(LLM)を利用するフレームワークである3D-GPTを紹介する。
3D-GPTは、3Dモデリングタスクをアクセス可能なセグメントに分割し、各タスクにアプエージェントを割り当てる。
我々の実証調査では、3D-GPTが解釈し、指示を実行し、信頼性の高い結果を提供するだけでなく、人間デザイナーと効果的に協力することを確認した。
論文 参考訳(メタデータ) (2023-10-19T17:41:48Z) - XDGAN: Multi-Modal 3D Shape Generation in 2D Space [60.46777591995821]
本稿では,3次元形状をコンパクトな1チャネル幾何画像に変換し,StyleGAN3と画像間翻訳ネットワークを利用して2次元空間で3次元オブジェクトを生成する手法を提案する。
生成された幾何学画像は素早く3Dメッシュに変換し、リアルタイムな3Dオブジェクト合成、可視化、インタラクティブな編集を可能にする。
近年の3次元生成モデルと比較して,より高速かつ柔軟な3次元形状生成,単一ビュー再構成,形状操作などの様々なタスクにおいて,本手法が有効であることを示す。
論文 参考訳(メタデータ) (2022-10-06T15:54:01Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。