論文の概要: Stable Diffusion for Data Augmentation in COCO and Weed Datasets
- arxiv url: http://arxiv.org/abs/2312.03996v3
- Date: Tue, 16 Jan 2024 21:30:52 GMT
- ステータス: 処理完了
- システム内更新日: 2024-01-18 19:48:15.336437
- Title: Stable Diffusion for Data Augmentation in COCO and Weed Datasets
- Title(参考訳): COCOおよび雑草データセットにおけるデータ拡張のための安定拡散
- Authors: Boyang Deng
- Abstract要約: 本研究は, 安定拡散モデルの有効性を評価するために, 7つの共通カテゴリーと3つの広く分布する雑草種を利用した。
安定拡散に基づく3つの手法(画像から画像への変換,ドリームブース,コントロールネット)を,焦点の異なる画像生成に利用した。
そして、これらの合成画像に基づいて分類・検出タスクを行い、その性能を原画像で訓練されたモデルと比較した。
- 参考スコア(独自算出の注目度): 5.81198182644659
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Generative models have increasingly impacted relative tasks, from computer
vision to interior design and other fields. Stable diffusion is an outstanding
diffusion model that paves the way for producing high-resolution images with
thorough details from text prompts or reference images. It will be an
interesting topic about gaining improvements for small datasets with
image-sparse categories. This study utilized seven common categories and three
widespread weed species to evaluate the efficiency of a stable diffusion model.
In detail, Stable diffusion was used to generate synthetic images belonging to
these classes; three techniques (i.e., Image-to-image translation, Dreambooth,
and ControlNet) based on stable diffusion were leveraged for image generation
with different focuses. Then, classification and detection tasks were conducted
based on these synthetic images, whose performance was compared to the models
trained on original images. Promising results have been achieved in some
classes. This seminal study may expedite the adaption of stable diffusion
models to different fields.
- Abstract(参考訳): 生成モデルはコンピュータビジョンからインテリアデザイン、その他の分野に至るまで、相対的なタスクにますます影響を与えている。
安定拡散は、テキストプロンプトや参照画像からの詳細な詳細で高解像度画像を生成するための優れた拡散モデルである。
イメージスパースカテゴリによる小さなデータセットの改善については、興味深いトピックになるでしょう。
本研究は, 安定拡散モデルの有効性を評価するために, 7つの共通カテゴリと3種の雑草種を用いた。
これらのクラスに属する合成画像の生成には,安定拡散を利用した3つの技術(画像から画像への変換,ドリームブート,コントロールネット)が活用された。
次に,これらの合成画像に基づいて分類・検出作業を行い,その性能を原画像で学習したモデルと比較した。
いくつかのクラスで結果が得られた。
このセミナルな研究は、異なる場への安定拡散モデルの適応を早めるかもしれない。
関連論文リスト
- Comparative Analysis of Generative Models: Enhancing Image Synthesis with VAEs, GANs, and Stable Diffusion [0.0]
本稿では,変分オートエンコーダ(VAE),GAN(Generative Adversarial Networks),安定拡散(Stable Diffusion)の3つの主要な生成モデルについて検討する。
論文 参考訳(メタデータ) (2024-08-16T13:50:50Z) - Diffusion Models in Low-Level Vision: A Survey [82.77962165415153]
拡散モデルに基づくソリューションは、優れた品質と多様性のサンプルを作成する能力で広く称賛されている。
本稿では,3つの一般化拡散モデリングフレームワークを提案し,それらと他の深層生成モデルとの相関関係について検討する。
医療、リモートセンシング、ビデオシナリオなど、他のタスクに適用された拡張拡散モデルについて要約する。
論文 参考訳(メタデータ) (2024-06-17T01:49:27Z) - Training Class-Imbalanced Diffusion Model Via Overlap Optimization [55.96820607533968]
実世界のデータセットで訓練された拡散モデルは、尾クラスの忠実度が劣ることが多い。
拡散モデルを含む深い生成モデルは、豊富な訓練画像を持つクラスに偏りがある。
本研究では,異なるクラスに対する合成画像の分布の重複を最小限に抑えるために,コントラスト学習に基づく手法を提案する。
論文 参考訳(メタデータ) (2024-02-16T16:47:21Z) - Large-scale Reinforcement Learning for Diffusion Models [30.164571425479824]
テキストと画像の拡散モデルは、Webスケールのテキストと画像のトレーニングペアから生じる暗黙のバイアスに影響を受けやすい。
強化学習(Reinforcement Learning, RL)を用いて, 拡散モデルの改善に有効なスケーラブルアルゴリズムを提案する。
提案手法は,従来の拡散モデルと人間の嗜好を整合させる手法よりも優れていることを示す。
論文 参考訳(メタデータ) (2024-01-20T08:10:43Z) - Conditional Image Generation with Pretrained Generative Model [1.4685355149711303]
拡散モデルは、GANモデルと比較して高品質な画像を生成する能力で人気を集めている。
これらのモデルには膨大な量のデータ、計算資源、そして訓練を成功させるために巧妙なチューニングが必要である。
本研究では,条件付き画像生成のために,事前学習した非条件拡散モデルを活用する手法を提案する。
論文 参考訳(メタデータ) (2023-12-20T18:27:53Z) - Steered Diffusion: A Generalized Framework for Plug-and-Play Conditional
Image Synthesis [62.07413805483241]
Steered Diffusionは、無条件生成のために訓練された拡散モデルを用いたゼロショット条件画像生成のためのフレームワークである。
塗装,着色,テキスト誘導セマンティック編集,画像超解像などのタスクに対して,ステアリング拡散を用いた実験を行った。
論文 参考訳(メタデータ) (2023-09-30T02:03:22Z) - Your Diffusion Model is Secretly a Zero-Shot Classifier [90.40799216880342]
大規模テキスト・画像拡散モデルからの密度推定をゼロショット分類に活用できることを示す。
分類に対する我々の生成的アプローチは、様々なベンチマークで強い結果が得られる。
我々の結果は、下流タスクにおける差別的モデルよりも生成的な利用に向けての一歩である。
論文 参考訳(メタデータ) (2023-03-28T17:59:56Z) - Diffusion Art or Digital Forgery? Investigating Data Replication in
Diffusion Models [53.03978584040557]
生成した画像とトレーニングサンプルを比較し、コンテンツが複製されたことを検知する画像検索フレームワークについて検討する。
フレームワークをオックスフォード花、Celeb-A、ImageNet、LAIONなど複数のデータセットでトレーニングされた拡散モデルに適用することにより、トレーニングセットのサイズがコンテンツ複製の速度にどのように影響するかを議論する。
論文 参考訳(メタデータ) (2022-12-07T18:58:02Z) - SinDiffusion: Learning a Diffusion Model from a Single Natural Image [159.4285444680301]
SinDiffusionは1つの自然な画像からパッチの内部分布を捉えるためにデノナイズ拡散モデルを利用する。
SinDiffusionは、2つのコア設計に基づいている。まず、SinDiffusionは、段階的にスケールが成長する複数のモデルではなく、1つのスケールで1つのモデルで訓練されている。
第2に,拡散ネットワークのパッチレベルの受容領域は,画像のパッチ統計を捉える上で重要かつ効果的であることを示す。
論文 参考訳(メタデータ) (2022-11-22T18:00:03Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。