論文の概要: The effects of using created synthetic images in computer vision training
- arxiv url: http://arxiv.org/abs/2506.03449v1
- Date: Tue, 03 Jun 2025 23:20:24 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-06-05 21:20:14.085808
- Title: The effects of using created synthetic images in computer vision training
- Title(参考訳): コンピュータビジョントレーニングにおける合成画像の利用効果
- Authors: John W. Smutny,
- Abstract要約: 本稿では,Unreal Engine 4(UE)のようなレンダリングエンジンを用いて,深層コンピュータビジョン(CV)モデルのためのデータセットを補完する合成画像を作成する方法について検討する。
UEのレンダリングされた合成イメージを使用することで、開発者やビジネスに、ほぼ無制限で再現性があり、アジャイルで、安価なトレーニングセットにアクセスする方法を提供する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: This paper investigates how rendering engines, like Unreal Engine 4 (UE), can be used to create synthetic images to supplement datasets for deep computer vision (CV) models in image abundant and image limited use cases. Using rendered synthetic images from UE can provide developers and businesses with a method of accessing nearly unlimited, reproducible, agile, and cheap training sets for their customers and applications without the threat of poisoned images from the internet or the cost of collecting them. The validity of these generated images are examined by testing the change in model test accuracy in two different sized CV models across two binary classification cases (Cat vs Dog and Weld Defect Detection). In addition, this paper provides an implementation of how to measure the quality of synthetic images by using pre-trained CV models as auditors. Results imply that for large (VGG16) and small (MobileNetV3-small) parameter deep CV models, adding >60% additional synthetic images to a real image dataset during model training can narrow the test-training accuracy gap to ~1-2% without a conclusive effect on test accuracy compared to using real world images alone. Likewise, adding <10% additional real training images to synthetic only training sets decreased the classification error rate in half, then decreasing further when adding more real training images. For these cases tested, using synthetic images from rendering engines allow researchers to only use 10% of their real images during training, compared to the traditional 50-70%. This research serves as an example of how to create synthetic images, guidelines on how to use the images, potential restrictions and possible performance improvements for data-scarce projects.
- Abstract(参考訳): 本稿では,Unreal Engine 4 (UE) のようなレンダリングエンジンを用いて,画像の豊富なユースケースにおいて,深層コンピュータビジョン(CV)モデルのためのデータセットを補完する合成画像を作成する方法について検討する。
UEのレンダリングされた合成画像を使用することで、インターネットから有毒な画像の脅威や収集コストを伴わずに、ほとんど無制限で再現可能で、アジャイルで、安価なトレーニングセットを顧客やアプリケーションに提供する、開発者やビジネスに提供することができる。
これらの画像の妥当性は、2つのバイナリ分類ケース(Cat vs Dog および Weld Defect Detection)で異なる2種類のCVモデルにおけるモデルテスト精度の変化を検証することによって検証される。
さらに,本論文では,事前学習したCVモデルを監査者として利用することにより,合成画像の品質を計測する方法の実装について述べる。
その結果、大(VGG16)および小(MobileNetV3-小)パラメータの深部CVモデルに対して、モデルトレーニング中の実画像データセットに60%以上の合成画像を追加することで、実世界の画像単独と比較してテスト精度に決定的な影響を及ぼすことなく、テストトレーニング精度ギャップを約1-2%に狭めることが示唆された。
同様に、合成トレーニングセットに10%以上の実トレーニングイメージを追加すると、分類エラー率が半減し、さらに実際のトレーニングイメージを追加すると、さらに減少する。
これらのケースのテストでは、レンダリングエンジンの合成画像を使用することで、従来の50~70%に比べて、トレーニング中の実際の画像の10%しか使用できない。
この研究は、合成画像の作成方法、画像の使用方法のガイドライン、潜在的な制限、データスカースプロジェクトのパフォーマンス改善の可能性の例である。
関連論文リスト
- CO-SPY: Combining Semantic and Pixel Features to Detect Synthetic Images by AI [58.35348718345307]
実際の画像とAI生成画像を区別する現在の取り組みには、一般化が欠如している可能性がある。
既存のセマンティック機能を強化した新しいフレームワークCo-Spyを提案する。
また、5つの実画像データセットと22の最先端生成モデルからなる包括的データセットであるCo-Spy-Benchを作成します。
論文 参考訳(メタデータ) (2025-03-24T01:59:29Z) - Scaling Backwards: Minimal Synthetic Pre-training? [52.78699562832907]
予備学習は最小限の合成画像でも有効であることを示す。
その結果,1kから1kへの合成画像の大幅な削減は,事前学習性能の向上につながることが判明した。
提案手法は,合成画像から実画像へ拡張し,単一の実画像が類似した事前学習効果を示すかどうかを確認する。
論文 参考訳(メタデータ) (2024-08-01T16:20:02Z) - Scaling Laws of Synthetic Images for Model Training ... for Now [54.43596959598466]
本研究では, 合成画像のスケーリング法則について, テクスト・ツー・イメージ・モデルの現状から検討した。
合成画像は、CLIPトレーニングの実際の画像と似ているが、やや効果の低いスケーリング傾向を示す。
論文 参考訳(メタデータ) (2023-12-07T18:59:59Z) - Improving the Effectiveness of Deep Generative Data [5.856292656853396]
下流の画像処理タスクのための純粋合成画像のモデルを訓練すると、実際のデータに対するトレーニングに比べ、望ましくない性能低下が生じる。
本稿では,この現象に寄与する要因を記述した新しい分類法を提案し,CIFAR-10データセットを用いて検討する。
本手法は,合成データと合成データの混合による学習と合成データのみの学習において,下流分類タスクのベースラインに優れる。
論文 参考訳(メタデータ) (2023-11-07T12:57:58Z) - Image Captions are Natural Prompts for Text-to-Image Models [70.30915140413383]
本研究では,合成データの学習効果とプロンプトによる合成データ分布の関係を解析した。
本稿では,テキストから画像への生成モデルにより,より情報的で多様な学習データを合成する簡易かつ効果的な手法を提案する。
本手法は,合成学習データに基づいて訓練したモデルの性能を大幅に向上させる。
論文 参考訳(メタデータ) (2023-07-17T14:38:11Z) - Synthetic Image Data for Deep Learning [0.294944680995069]
3次元モデルからレンダリングされたリアルな合成画像データを使用して、画像集合を拡大し、画像分類セグメンテーションモデルを訓練することができる。
実車の生産3次元CADモデルに基づく大規模合成データセットを,高品質な物理ベースレンダリングとドメインランダム化により効率的に作成できることを示す。
論文 参考訳(メタデータ) (2022-12-12T20:28:13Z) - Procedural Image Programs for Representation Learning [62.557911005179946]
我々は,2万プログラムからなる大規模なデータセットを用いて,多様な合成画像を生成する訓練を提案する。
これらのプログラムは短いコードスニペットであり、変更が容易で、高速に実行することができる。
提案したデータセットは、教師付きおよび教師なしの表現学習の両方に使用することができ、実際の画像と手続き的に生成された画像との事前学習のギャップを38%削減する。
論文 参考訳(メタデータ) (2022-11-29T17:34:22Z) - Is synthetic data from generative models ready for image recognition? [69.42645602062024]
本研究では,最新のテキスト・画像生成モデルから生成した合成画像が,画像認識タスクにどのように利用できるかを検討した。
本稿では,既存の生成モデルからの合成データの強大さと欠点を示し,認識タスクに合成データを適用するための戦略を提案する。
論文 参考訳(メタデータ) (2022-10-14T06:54:24Z) - PennSyn2Real: Training Object Recognition Models without Human Labeling [12.923677573437699]
我々はPennSyn2Realを提案する。20種類以上のマイクロエアロビー(MAV)の10万以上の4K画像からなる合成データセットである。
このデータセットは、MAV検出や分類などのハイレベルコンピュータビジョンタスクのための任意の数のトレーニングイメージを生成するために使用することができる。
このフレームワークを用いて生成された合成データは,検出やセグメンテーションといった一般的なオブジェクト認識タスクに対して,CNNモデルをトレーニングするために直接利用できることを示す。
論文 参考訳(メタデータ) (2020-09-22T02:53:40Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。