論文の概要: CAD2Render: A Modular Toolkit for GPU-accelerated Photorealistic
Synthetic Data Generation for the Manufacturing Industry
- arxiv url: http://arxiv.org/abs/2211.14054v1
- Date: Fri, 25 Nov 2022 12:17:35 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-28 16:01:41.621288
- Title: CAD2Render: A Modular Toolkit for GPU-accelerated Photorealistic
Synthetic Data Generation for the Manufacturing Industry
- Title(参考訳): CAD2Render: 製造用GPUアクセラレーション光合成データ生成用モジュールツールキット
- Authors: Steven Moonen and Bram Vanherle and Joris de Hoog and Taoufik Bourgana
and Abdellatif Bey-Temsamani and Nick Michiels
- Abstract要約: 本稿では, Unity High Definition Render Pipeline (HDRP)に基づくGPUアクセラレーション型合成データ生成装置CAD2Renderを紹介する。
CAD2Renderはモジュラー方式でバリエーションを追加するように設計されており、高度にカスタマイズ可能なデータ生成を可能にする。
提案手法により生成されたデータは,ロボットの指示に十分な精度で物体検出と推定モデルを訓練するために利用できることを示す。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The use of computer vision for product and assembly quality control is
becoming ubiquitous in the manufacturing industry. Lately, it is apparent that
machine learning based solutions are outperforming classical computer vision
algorithms in terms of performance and robustness. However, a main drawback is
that they require sufficiently large and labeled training datasets, which are
often not available or too tedious and too time consuming to acquire. This is
especially true for low-volume and high-variance manufacturing. Fortunately, in
this industry, CAD models of the manufactured or assembled products are
available. This paper introduces CAD2Render, a GPU-accelerated synthetic data
generator based on the Unity High Definition Render Pipeline (HDRP). CAD2Render
is designed to add variations in a modular fashion, making it possible for high
customizable data generation, tailored to the needs of the industrial use case
at hand. Although CAD2Render is specifically designed for manufacturing use
cases, it can be used for other domains as well. We validate CAD2Render by
demonstrating state of the art performance in two industrial relevant setups.
We demonstrate that the data generated by our approach can be used to train
object detection and pose estimation models with a high enough accuracy to
direct a robot. The code for CAD2Render is available at
https://github.com/EDM-Research/CAD2Render.
- Abstract(参考訳): 製造業界では、製品や組立品質管理におけるコンピュータビジョンの利用が普及しつつある。
近年、機械学習ベースのソリューションは、性能と堅牢性の観点から、古典的なコンピュータビジョンアルゴリズムよりも優れています。
しかし、大きな欠点は、十分に大きくラベル付けされたトレーニングデータセットを必要とすることだ。
これは特に低体積・高分散製造に当てはまる。
幸いなことに、この業界では、製造または組み立てされた製品のCADモデルが利用可能である。
本稿では,unity high definition render pipeline(hdrp)に基づくgpuアクセラレーション合成データジェネレータcad2renderについて述べる。
CAD2Renderはモジュラー方式でバリエーションを追加するように設計されており、工業用ユースケースのニーズに合わせて高度にカスタマイズ可能なデータ生成を可能にする。
CAD2Renderは製造用途に特化して設計されているが、他のドメインでも使用することができる。
CAD2Renderは,2つの産業関連設備で技術性能を実証することで検証する。
提案手法により生成されたデータは,ロボットの指示に十分な精度で物体検出と推定モデルを訓練するために利用できることを示す。
CAD2Renderのコードはhttps://github.com/EDM-Research/CAD2Renderで公開されている。
関連論文リスト
- GaussRender: Learning 3D Occupancy with Gaussian Rendering [84.60008381280286]
GaussRenderは、Voxelベースの監視を強化する3Dから2Dへのプラグアンドプレイのリジェクション損失である。
提案手法は, 任意の2次元視点に3次元ボクセル表現を投影し, ガウススプラッティングをボクセルの効率的かつ微分可能なレンダリングプロキシとして活用する。
論文 参考訳(メタデータ) (2025-02-07T16:07:51Z) - Image2CADSeq: Computer-Aided Design Sequence and Knowledge Inference from Product Images [0.7673339435080445]
デジタルCADファイルがアクセスできないシナリオでは、リバースエンジニアリング(RE)が3DCADモデルの再構築に使われてきた。
ポイントクラウドなどの3Dデータを境界表現(B-rep)フォーマットで3Dモデルに変換することに重点を置いている。
本研究では,Image2CADSeqニューラルネットワークモデルを用いた新しいデータ駆動型アプローチを提案する。
論文 参考訳(メタデータ) (2025-01-09T02:36:21Z) - GEAL: Generalizable 3D Affordance Learning with Cross-Modal Consistency [50.11520458252128]
既存の3Dアベイランス学習手法は、注釈付きデータに制限があるため、一般化と堅牢性に苦慮している。
本稿では,大規模事前学習型2Dモデルを活用することで,3次元アベイランス学習の一般化と堅牢性を高めるための新しいフレームワークであるGEALを提案する。
GEALは、既存のメソッドと、新しいオブジェクトカテゴリ、および破損したデータにおいて、一貫して優れています。
論文 参考訳(メタデータ) (2024-12-12T17:59:03Z) - UrbanCAD: Towards Highly Controllable and Photorealistic 3D Vehicles for Urban Scene Simulation [46.47972242593905]
自律走行シミュレーションとデータ拡張には,高可制御性光現実性3次元車両モデルが不可欠である。
都市画像から高度に制御可能で光リアルな3D車両のデジタルツインを生成するフレームワークであるUrbanCADを紹介する。
論文 参考訳(メタデータ) (2024-11-28T17:51:08Z) - Text2CAD: Text to 3D CAD Generation via Technical Drawings [45.3611544056261]
Text2CADは、生成プロセスを自動化するために調整された安定した拡散モデルを利用する新しいフレームワークである。
テキスト2CADは,高品質な3次元CADモデルに正確に変換された技術図面を効果的に生成することを示す。
論文 参考訳(メタデータ) (2024-11-09T15:12:06Z) - Scalable Cloud-Native Pipeline for Efficient 3D Model Reconstruction from Monocular Smartphone Images [9.61065600471628]
スマートフォンカメラで撮影したモノクロ2D画像から3Dモデルを自動的に再構築する,クラウドネイティブなパイプラインを提案する。
我々のソリューションは、組込み材料とテクスチャを備えた再利用可能な3Dモデルを作成し、外部ソフトウェアや3Dエンジンでエクスポート可能でカスタマイズできる。
論文 参考訳(メタデータ) (2024-09-28T11:15:26Z) - OpenECAD: An Efficient Visual Language Model for Editable 3D-CAD Design [1.481550828146527]
OpenECADモデル(0.55B, 0.89B, 2.4B, 3.1B)を作成するための事前学習モデルの微調整を行った。
OpenECADモデルは、入力として3Dデザインの画像を処理することができ、高度に構造化された2Dスケッチと3D構築コマンドを生成する。
これらの出力は、プロジェクトファイルを生成するために既存のCADツールのAPIで直接使用することができる。
論文 参考訳(メタデータ) (2024-06-14T10:47:52Z) - EvaSurf: Efficient View-Aware Implicit Textured Surface Reconstruction [53.28220984270622]
3次元再構成法はリアルタイムに3次元整合性のある高忠実度結果を生成する。
提案手法は,合成と実世界の両方のデータセット上で,高品質な外観と正確なメッシュを再構築することができる。
我々の方法は1つのGPUを使ってたった1~2時間でトレーニングでき、40FPS(Frames per second)以上のモバイルデバイス上で実行することができる。
論文 参考訳(メタデータ) (2023-11-16T11:30:56Z) - Model2Scene: Learning 3D Scene Representation via Contrastive
Language-CAD Models Pre-training [105.3421541518582]
現在成功している3次元シーン認識法は、大規模アノテートされた点雲に依存している。
CAD(Computer-Aided Design)モデルと言語から自由な3Dシーン表現を学習する新しいパラダイムであるModel2Sceneを提案する。
Model2Sceneは、平均mAPが46.08%、ScanNetとS3DISのデータセットが55.49%という、ラベルなしの優れた3Dオブジェクトのサリエント検出をもたらす。
論文 参考訳(メタデータ) (2023-09-29T03:51:26Z) - GET3D: A Generative Model of High Quality 3D Textured Shapes Learned
from Images [72.15855070133425]
本稿では,複雑なトポロジ,リッチな幾何学的ディテール,高忠実度テクスチャを備えたExplicit Textured 3Dメッシュを直接生成する生成モデルであるGET3Dを紹介する。
GET3Dは、車、椅子、動物、バイク、人間キャラクターから建物まで、高品質な3Dテクスチャメッシュを生成することができる。
論文 参考訳(メタデータ) (2022-09-22T17:16:19Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。