論文の概要: Fake it till you make it: Learning(s) from a synthetic ImageNet clone
- arxiv url: http://arxiv.org/abs/2212.08420v1
- Date: Fri, 16 Dec 2022 11:44:01 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-19 14:56:30.472476
- Title: Fake it till you make it: Learning(s) from a synthetic ImageNet clone
- Title(参考訳): fake it until you make it: learning(s) from a synthetic imagenet clone (英語)
- Authors: Mert Bulent Sariyildiz, Karteek Alahari, Diane Larlus, Yannis
Kalantidis
- Abstract要約: 安定拡散のような最近の大規模画像生成モデルは、かなりリアルな画像を生成する素晴らしい能力を示した。
合成画像上で訓練されたモデルが強い一般化特性を示し、実データで訓練されたモデルと同等の性能を示すことを示す。
- 参考スコア(独自算出の注目度): 30.264601433216246
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Recent large-scale image generation models such as Stable Diffusion have
exhibited an impressive ability to generate fairly realistic images starting
from a very simple text prompt. Could such models render real images obsolete
for training image prediction models? In this paper, we answer part of this
provocative question by questioning the need for real images when training
models for ImageNet classification. More precisely, provided only with the
class names that have been used to build the dataset, we explore the ability of
Stable Diffusion to generate synthetic clones of ImageNet and measure how
useful they are for training classification models from scratch. We show that
with minimal and class-agnostic prompt engineering those ImageNet clones we
denote as ImageNet-SD are able to close a large part of the gap between models
produced by synthetic images and models trained with real images for the
several standard classification benchmarks that we consider in this study. More
importantly, we show that models trained on synthetic images exhibit strong
generalization properties and perform on par with models trained on real data.
- Abstract(参考訳): 安定拡散などの最近の大規模画像生成モデルでは、非常に単純なテキストプロンプトからかなり現実的な画像を生成することができる。
このようなモデルは、画像予測モデルをトレーニングするために、実際のイメージを時代遅れにするだろうか?
本稿では,画像ネット分類のトレーニングモデルにおいて,実画像の必要性に疑問を呈し,挑発的疑問の一部に答える。
より正確には、データセットの構築に使用されたクラス名のみを提供し、imagenetの合成クローンを生成するための安定拡散の能力を調べ、それらをスクラッチから分類モデルのトレーニングにどの程度役立つかを測定する。
画像Net-SDと表現する画像Netクローンは、最小限かつクラスに依存しないプロンプトエンジニアリングにより、合成画像によって生成されたモデルと実際の画像で訓練されたモデルとのギャップの大部分を埋めることができることを示す。
さらに,合成画像で訓練したモデルが,強い一般化特性を示し,実データで訓練したモデルと同等の性能を示すことを示す。
関連論文リスト
- Scaling Laws of Synthetic Images for Model Training ... for Now [54.43596959598466]
本研究では, 合成画像のスケーリング法則について, テクスト・ツー・イメージ・モデルの現状から検討した。
合成画像は、CLIPトレーニングの実際の画像と似ているが、やや効果の低いスケーリング傾向を示す。
論文 参考訳(メタデータ) (2023-12-07T18:59:59Z) - Image Captions are Natural Prompts for Text-to-Image Models [70.30915140413383]
本研究では,合成データの学習効果とプロンプトによる合成データ分布の関係を解析した。
本稿では,テキストから画像への生成モデルにより,より情報的で多様な学習データを合成する簡易かつ効果的な手法を提案する。
本手法は,合成学習データに基づいて訓練したモデルの性能を大幅に向上させる。
論文 参考訳(メタデータ) (2023-07-17T14:38:11Z) - Synthetic Image Data for Deep Learning [0.294944680995069]
3次元モデルからレンダリングされたリアルな合成画像データを使用して、画像集合を拡大し、画像分類セグメンテーションモデルを訓練することができる。
実車の生産3次元CADモデルに基づく大規模合成データセットを,高品質な物理ベースレンダリングとドメインランダム化により効率的に作成できることを示す。
論文 参考訳(メタデータ) (2022-12-12T20:28:13Z) - Is synthetic data from generative models ready for image recognition? [69.42645602062024]
本研究では,最新のテキスト・画像生成モデルから生成した合成画像が,画像認識タスクにどのように利用できるかを検討した。
本稿では,既存の生成モデルからの合成データの強大さと欠点を示し,認識タスクに合成データを適用するための戦略を提案する。
論文 参考訳(メタデータ) (2022-10-14T06:54:24Z) - Identical Image Retrieval using Deep Learning [0.0]
私たちは最先端のモデルであるBigTransfer Modelを使用しています。
我々は、K-Nearest Neighborモデルで重要な特徴を抽出し、最も近い隣人を得るために訓練する。
本モデルの応用は,低推論時間でテキストクエリによって実現し難い,類似した画像を見つけることである。
論文 参考訳(メタデータ) (2022-05-10T13:34:41Z) - InvGAN: Invertible GANs [88.58338626299837]
InvGANはInvertible GANの略で、高品質な生成モデルの潜在空間に実際の画像を埋め込むことに成功した。
これにより、画像のインペイント、マージ、オンラインデータ拡張を実行できます。
論文 参考訳(メタデータ) (2021-12-08T21:39:00Z) - Meta Internal Learning [88.68276505511922]
単一画像生成のための内部学習は、単一の画像に基づいて新しい画像を生成するようにジェネレータを訓練するフレームワークである。
本稿では,サンプル画像の内部統計をより効果的にモデル化するために,画像集合のトレーニングを可能にするメタラーニング手法を提案する。
以上の結果から, 得られたモデルは, 多数の共通画像アプリケーションにおいて, シングルイメージのGANと同程度に適していることがわかった。
論文 参考訳(メタデータ) (2021-10-06T16:27:38Z) - Counterfactual Generative Networks [59.080843365828756]
画像生成過程を直接監督せずに訓練する独立した因果機構に分解することを提案する。
適切な誘導バイアスを活用することによって、これらのメカニズムは物体の形状、物体の質感、背景を解き放つ。
その結果, 偽画像は, 元の分類タスクにおける性能の低下を伴い, 分散性が向上することが示された。
論文 参考訳(メタデータ) (2021-01-15T10:23:12Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。