論文の概要: CAD2Render: A Modular Toolkit for GPU-accelerated Photorealistic
Synthetic Data Generation for the Manufacturing Industry
- arxiv url: http://arxiv.org/abs/2211.14054v1
- Date: Fri, 25 Nov 2022 12:17:35 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-28 16:01:41.621288
- Title: CAD2Render: A Modular Toolkit for GPU-accelerated Photorealistic
Synthetic Data Generation for the Manufacturing Industry
- Title(参考訳): CAD2Render: 製造用GPUアクセラレーション光合成データ生成用モジュールツールキット
- Authors: Steven Moonen and Bram Vanherle and Joris de Hoog and Taoufik Bourgana
and Abdellatif Bey-Temsamani and Nick Michiels
- Abstract要約: 本稿では, Unity High Definition Render Pipeline (HDRP)に基づくGPUアクセラレーション型合成データ生成装置CAD2Renderを紹介する。
CAD2Renderはモジュラー方式でバリエーションを追加するように設計されており、高度にカスタマイズ可能なデータ生成を可能にする。
提案手法により生成されたデータは,ロボットの指示に十分な精度で物体検出と推定モデルを訓練するために利用できることを示す。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The use of computer vision for product and assembly quality control is
becoming ubiquitous in the manufacturing industry. Lately, it is apparent that
machine learning based solutions are outperforming classical computer vision
algorithms in terms of performance and robustness. However, a main drawback is
that they require sufficiently large and labeled training datasets, which are
often not available or too tedious and too time consuming to acquire. This is
especially true for low-volume and high-variance manufacturing. Fortunately, in
this industry, CAD models of the manufactured or assembled products are
available. This paper introduces CAD2Render, a GPU-accelerated synthetic data
generator based on the Unity High Definition Render Pipeline (HDRP). CAD2Render
is designed to add variations in a modular fashion, making it possible for high
customizable data generation, tailored to the needs of the industrial use case
at hand. Although CAD2Render is specifically designed for manufacturing use
cases, it can be used for other domains as well. We validate CAD2Render by
demonstrating state of the art performance in two industrial relevant setups.
We demonstrate that the data generated by our approach can be used to train
object detection and pose estimation models with a high enough accuracy to
direct a robot. The code for CAD2Render is available at
https://github.com/EDM-Research/CAD2Render.
- Abstract(参考訳): 製造業界では、製品や組立品質管理におけるコンピュータビジョンの利用が普及しつつある。
近年、機械学習ベースのソリューションは、性能と堅牢性の観点から、古典的なコンピュータビジョンアルゴリズムよりも優れています。
しかし、大きな欠点は、十分に大きくラベル付けされたトレーニングデータセットを必要とすることだ。
これは特に低体積・高分散製造に当てはまる。
幸いなことに、この業界では、製造または組み立てされた製品のCADモデルが利用可能である。
本稿では,unity high definition render pipeline(hdrp)に基づくgpuアクセラレーション合成データジェネレータcad2renderについて述べる。
CAD2Renderはモジュラー方式でバリエーションを追加するように設計されており、工業用ユースケースのニーズに合わせて高度にカスタマイズ可能なデータ生成を可能にする。
CAD2Renderは製造用途に特化して設計されているが、他のドメインでも使用することができる。
CAD2Renderは,2つの産業関連設備で技術性能を実証することで検証する。
提案手法により生成されたデータは,ロボットの指示に十分な精度で物体検出と推定モデルを訓練するために利用できることを示す。
CAD2Renderのコードはhttps://github.com/EDM-Research/CAD2Renderで公開されている。
関連論文リスト
- Text2CAD: Text to 3D CAD Generation via Technical Drawings [45.3611544056261]
Text2CADは、生成プロセスを自動化するために調整された安定した拡散モデルを利用する新しいフレームワークである。
テキスト2CADは,高品質な3次元CADモデルに正確に変換された技術図面を効果的に生成することを示す。
論文 参考訳(メタデータ) (2024-11-09T15:12:06Z) - Scalable Cloud-Native Pipeline for Efficient 3D Model Reconstruction from Monocular Smartphone Images [9.61065600471628]
スマートフォンカメラで撮影したモノクロ2D画像から3Dモデルを自動的に再構築する,クラウドネイティブなパイプラインを提案する。
我々のソリューションは、組込み材料とテクスチャを備えた再利用可能な3Dモデルを作成し、外部ソフトウェアや3Dエンジンでエクスポート可能でカスタマイズできる。
論文 参考訳(メタデータ) (2024-09-28T11:15:26Z) - OpenECAD: An Efficient Visual Language Model for Editable 3D-CAD Design [1.481550828146527]
OpenECADモデル(0.55B, 0.89B, 2.4B, 3.1B)を作成するための事前学習モデルの微調整を行った。
OpenECADモデルは、入力として3Dデザインの画像を処理することができ、高度に構造化された2Dスケッチと3D構築コマンドを生成する。
これらの出力は、プロジェクトファイルを生成するために既存のCADツールのAPIで直接使用することができる。
論文 参考訳(メタデータ) (2024-06-14T10:47:52Z) - SceneX:Procedural Controllable Large-scale Scene Generation via Large-language Models [53.961002112433576]
本稿では,デザイナーのテキスト記述に従って高品質なプロシージャモデルを自動生成する大規模シーン生成フレームワークであるSceneXを紹介する。
私たちのSceneXは、微妙な幾何学的レイアウトと構造を持つ2.5km×2.5kmの都市を生成でき、プロのPCGエンジニアの数週間の時間を大幅に短縮して、普通のユーザにとっては数時間に過ぎません。
論文 参考訳(メタデータ) (2024-03-23T03:23:29Z) - HyperDreamer: Hyper-Realistic 3D Content Generation and Editing from a
Single Image [94.11473240505534]
一つの画像から3Dコンテンツを作成するためのツールであるHyperDreamerを紹介します。
ユーザーは、結果の3Dコンテンツをフル範囲から閲覧、レンダリング、編集できないため、ポストジェネレーションの使用には十分である。
高分解能なテクスチャとユーザフレンドリーな編集が可能な領域認識素材のモデリングにおけるHyperDreamerの有効性を実証する。
論文 参考訳(メタデータ) (2023-12-07T18:58:09Z) - Model2Scene: Learning 3D Scene Representation via Contrastive
Language-CAD Models Pre-training [105.3421541518582]
現在成功している3次元シーン認識法は、大規模アノテートされた点雲に依存している。
CAD(Computer-Aided Design)モデルと言語から自由な3Dシーン表現を学習する新しいパラダイムであるModel2Sceneを提案する。
Model2Sceneは、平均mAPが46.08%、ScanNetとS3DISのデータセットが55.49%という、ラベルなしの優れた3Dオブジェクトのサリエント検出をもたらす。
論文 参考訳(メタデータ) (2023-09-29T03:51:26Z) - Surrogate Modeling of Car Drag Coefficient with Depth and Normal
Renderings [4.868319717279586]
本稿では,3次元カードラッグの予測の有効性を検証するために,新しい2次元3次元形状表現法を提案する。
我々はドラッグ係数でラベル付けされた9,070個の高品質な3Dカーメッシュの多様なデータセットを構築した。
実験により,車種別0.84以上のR2$値のドラッグ係数を精度良く,効率的に評価できることを示した。
論文 参考訳(メタデータ) (2023-05-26T09:33:12Z) - GET3D: A Generative Model of High Quality 3D Textured Shapes Learned
from Images [72.15855070133425]
本稿では,複雑なトポロジ,リッチな幾何学的ディテール,高忠実度テクスチャを備えたExplicit Textured 3Dメッシュを直接生成する生成モデルであるGET3Dを紹介する。
GET3Dは、車、椅子、動物、バイク、人間キャラクターから建物まで、高品質な3Dテクスチャメッシュを生成することができる。
論文 参考訳(メタデータ) (2022-09-22T17:16:19Z) - Simple and Effective Synthesis of Indoor 3D Scenes [78.95697556834536]
1枚以上の画像から3D屋内シーンを没入する問題について検討する。
我々の狙いは、新しい視点から高解像度の画像とビデオを作成することである。
本稿では,不完全点雲の再投影から高解像度のRGB-D画像へ直接マップするイメージ・ツー・イメージのGANを提案する。
論文 参考訳(メタデータ) (2022-04-06T17:54:46Z) - NViSII: A Scriptable Tool for Photorealistic Image Generation [21.453677837017462]
本稿では,NVIDIA の OptiX 線追跡エンジンと,高品質な合成画像を生成するために設計された OptiX AI denoiser をベースとした Python ベースのシステムを提案する。
我々のツールは複雑な動的3Dシーンの記述と操作を可能にする。
論文 参考訳(メタデータ) (2021-05-28T16:35:32Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。