論文の概要: SynGen-Vision: Synthetic Data Generation for training industrial vision models
- arxiv url: http://arxiv.org/abs/2509.04894v1
- Date: Fri, 05 Sep 2025 08:15:46 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-08 14:27:25.521446
- Title: SynGen-Vision: Synthetic Data Generation for training industrial vision models
- Title(参考訳): SynGen-Vision:産業ビジョンモデルのトレーニングのための合成データ生成
- Authors: Alpana Dubey, Suma Mani Kuriakose, Nitish Bhardwaj,
- Abstract要約: 本稿では,産業用摩耗および涙検知のためのコンピュータビジョン(CV)モデルを訓練するための合成データ生成手法を提案する。
提案手法では3次元シミュレーションおよびレンダリングエンジンとともに視覚言語モデルを用いて,ラスト条件の異なる合成データを生成する。
本手法は,スラスト検出のためのCVモデルを生成したデータセットを用いて訓練し,スラスト処理対象の実際の画像に基づいて実験を行った。
- 参考スコア(独自算出の注目度): 0.15293427903448018
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: We propose an approach to generate synthetic data to train computer vision (CV) models for industrial wear and tear detection. Wear and tear detection is an important CV problem for predictive maintenance tasks in any industry. However, data curation for training such models is expensive and time-consuming due to the unavailability of datasets for different wear and tear scenarios. Our approach employs a vision language model along with a 3D simulation and rendering engine to generate synthetic data for varying rust conditions. We evaluate our approach by training a CV model for rust detection using the generated dataset and tested the trained model on real images of rusted industrial objects. The model trained with the synthetic data generated by our approach, outperforms the other approaches with a mAP50 score of 0.87. The approach is customizable and can be easily extended to other industrial wear and tear detection scenarios
- Abstract(参考訳): 本稿では,産業用摩耗および涙検知のためのコンピュータビジョン(CV)モデルを訓練するための合成データ生成手法を提案する。
摩耗・破断検出は, あらゆる産業において, 予測保守作業において重要なCV問題である。
しかし、そのようなモデルのトレーニングのためのデータキュレーションは、異なる摩耗や裂けのシナリオでデータセットが利用できないため、高価で時間を要する。
提案手法では3次元シミュレーションおよびレンダリングエンジンとともに視覚言語モデルを用いて,ラスト条件の異なる合成データを生成する。
本手法は,スラスト検出のためのCVモデルを生成したデータセットを用いて訓練し,スラスト処理対象の実際の画像に基づいて実験を行った。
提案手法により生成した合成データを用いて学習したモデルは,mAP50スコア0.87で他の手法よりも優れていた。
このアプローチはカスタマイズ可能で、他の産業用摩耗や涙検出シナリオにも容易に拡張できる
関連論文リスト
- Point Cloud Segmentation of Agricultural Vehicles using 3D Gaussian Splatting [12.323236593352698]
この研究は、現実的な合成データを生成するための新しいパイプラインを導入することを目的としている。
我々はジェネリックモデルではなく、複数の農業車両の3D資産を生成する。
我々は、合成データのみをトレーニングし、検証することにより、PointNet++、Point Transformer V3、OACNNなどのセグメンテーションモデルに対する合成データの影響を評価する。
論文 参考訳(メタデータ) (2025-06-05T13:19:27Z) - Synthetic Similarity Search in Automotive Production [0.4499833362998487]
本稿では,視覚に基づく基礎モデルと合成データを用いた類似性探索を組み合わせた新しい画像分類パイプラインを提案する。
本手法を実世界の8つの検査シナリオで評価し,実運用環境における高い性能要件を満たすことを示す。
論文 参考訳(メタデータ) (2025-05-12T06:10:48Z) - Controllable Image Synthesis of Industrial Data Using Stable Diffusion [2.021800129069459]
本稿では,産業データに基づく汎用事前学習型生成モデルの再利用手法を提案する。
まず、モデルに新しい概念を学習させ、新しいデータ分布を学習させる。
そこで我々は,その生成過程の条件付けを強制的に行ない,よく定義されたトポロジ的特徴を満たす産業用画像を生成する。
論文 参考訳(メタデータ) (2024-01-06T08:09:24Z) - On the Stability of Iterative Retraining of Generative Models on their own Data [56.153542044045224]
混合データセットに対する生成モデルの訓練が与える影響について検討する。
まず、初期生成モデルがデータ分布を十分に近似する条件下で反復学習の安定性を実証する。
我々は、正規化フローと最先端拡散モデルを繰り返し訓練することにより、合成画像と自然画像の両方に関する我々の理論を実証的に検証する。
論文 参考訳(メタデータ) (2023-09-30T16:41:04Z) - The Big Data Myth: Using Diffusion Models for Dataset Generation to
Train Deep Detection Models [0.15469452301122172]
本研究では, 微調整型安定拡散モデルによる合成データセット生成のための枠組みを提案する。
本研究の結果から, 合成データを用いた物体検出モデルは, ベースラインモデルと同じような性能を示すことが明らかとなった。
論文 参考訳(メタデータ) (2023-06-16T10:48:52Z) - Robust Category-Level 3D Pose Estimation from Synthetic Data [17.247607850702558]
CADモデルから生成されたオブジェクトポーズ推定のための新しい合成データセットであるSyntheticP3Dを紹介する。
逆レンダリングによるポーズ推定を行うニューラルネットワークモデルをトレーニングするための新しいアプローチ(CC3D)を提案する。
論文 参考訳(メタデータ) (2023-05-25T14:56:03Z) - Is synthetic data from generative models ready for image recognition? [69.42645602062024]
本研究では,最新のテキスト・画像生成モデルから生成した合成画像が,画像認識タスクにどのように利用できるかを検討した。
本稿では,既存の生成モデルからの合成データの強大さと欠点を示し,認識タスクに合成データを適用するための戦略を提案する。
論文 参考訳(メタデータ) (2022-10-14T06:54:24Z) - Towards 3D Scene Understanding by Referring Synthetic Models [65.74211112607315]
メソッドは通常、実際のシーンスキャンにおける過剰なアノテーションを緩和する。
合成モデルは、合成特徴の実際のシーンカテゴリを、統一された特徴空間にどのように依存するかを考察する。
実験の結果,ScanNet S3DISデータセットの平均mAPは46.08%,学習データセットは55.49%であった。
論文 参考訳(メタデータ) (2022-03-20T13:06:15Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。