論文の概要: Expanding Small-Scale Datasets with Guided Imagination
- arxiv url: http://arxiv.org/abs/2211.13976v1
- Date: Fri, 25 Nov 2022 09:38:22 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-28 15:24:14.765510
- Title: Expanding Small-Scale Datasets with Guided Imagination
- Title(参考訳): ガイドイマジネーションによる小規模データセットの拡張
- Authors: Yifan Zhang, Daquan Zhou, Bryan Hooi, Kai Wang, Jiashi Feng
- Abstract要約: 新しいタスクデータセットの拡張は、小さなデータセットを拡張するために、ラベル付きサンプルを自動的に生成することを目指している。
GIFは、意味論的に意味のある空間において、シードデータの潜伏した特徴を最適化することで想像力を発揮する。
GIFは、異なる領域におけるデータセットの拡張に有効であり、平均して6つの天然画像データセットで29.9%の精度向上、平均して3つの医用画像データセットで12.3%の精度向上を実現している。
- 参考スコア(独自算出の注目度): 93.6889734249636
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The power of Deep Neural Networks (DNNs) depends heavily on the training data
quantity, quality and diversity. However, in many real scenarios, it is costly
and time-consuming to collect and annotate large-scale data. This has severely
hindered the application of DNNs. To address this challenge, we explore a new
task of dataset expansion, which seeks to automatically create new labeled
samples to expand a small dataset. To this end, we present a Guided Imagination
Framework (GIF) that leverages the recently developed big generative models
(e.g., DALL-E2) and reconstruction models (e.g., MAE) to "imagine" and create
informative new data from seed data to expand small datasets. Specifically, GIF
conducts imagination by optimizing the latent features of seed data in a
semantically meaningful space, which are fed into the generative models to
generate photo-realistic images with new contents. For guiding the imagination
towards creating samples useful for model training, we exploit the zero-shot
recognition ability of CLIP and introduce three criteria to encourage
informative sample generation, i.e., prediction consistency, entropy
maximization and diversity promotion. With these essential criteria as
guidance, GIF works well for expanding datasets in different domains, leading
to 29.9% accuracy gain on average over six natural image datasets, and 12.3%
accuracy gain on average over three medical image datasets.
- Abstract(参考訳): ディープニューラルネットワーク(DNN)のパワーは、トレーニングデータ量、品質、多様性に大きく依存する。
しかし、多くの現実のシナリオでは、大規模データの収集と注釈付けは費用がかかり、時間がかかる。
これはDNNの適用を著しく妨げている。
この課題に対処するため、データセット拡張という新たなタスクを検討し、小さなデータセットを拡張するために、ラベル付きサンプルを自動生成する。
この目的のために、最近開発された大規模生成モデル(例えば、DALL-E2)と再構成モデル(例えば、MAE)を活用して、シードデータから情報的な新しいデータを作成し、小さなデータセットを拡張するガイドImagination Framework(GIF)を提案する。
具体的には、シードデータの潜在的な特徴を意味的に意味のある空間に最適化し、生成モデルに入力し、新たなコンテンツでフォトリアリスティックな画像を生成することで想像力を発揮する。
モデルトレーニングに有用なサンプルを作成するための想像力を導くために,CLIPのゼロショット認識能力を活用し,予測一貫性,エントロピー最大化,多様性向上の3つの基準を導入する。
これらの必須基準をガイダンスとして、gifは異なる領域のデータセットを拡張するのに適しており、6つの自然画像データセットの平均で29.9%、医療画像データセットで平均12.3%の精度向上をもたらす。
関連論文リスト
- Erase, then Redraw: A Novel Data Augmentation Approach for Free Space Detection Using Diffusion Model [5.57325257338134]
従来のデータ拡張方法は、ハイレベルなセマンティック属性を変更することはできない。
画像から画像への変換をパラメータ化するためのテキスト間拡散モデルを提案する。
我々は、元のデータセットから実際のオブジェクトのインスタンスを消去し、削除されたリージョンで同様の意味を持つ新しいインスタンスを生成することで、この目標を達成する。
論文 参考訳(メタデータ) (2024-09-30T10:21:54Z) - 3D-VirtFusion: Synthetic 3D Data Augmentation through Generative Diffusion Models and Controllable Editing [52.68314936128752]
本研究では,事前学習された大規模基盤モデルのパワーを活用して,3次元ラベル付きトレーニングデータを自動的に生成する新しいパラダイムを提案する。
各ターゲットセマンティッククラスに対して、まず、拡散モデルとチャットGPT生成したテキストプロンプトを介して、様々な構造と外観の1つのオブジェクトの2D画像を生成する。
我々は、これらの拡張画像を3Dオブジェクトに変換し、ランダムな合成によって仮想シーンを構築する。
論文 参考訳(メタデータ) (2024-08-25T09:31:22Z) - DataDream: Few-shot Guided Dataset Generation [90.09164461462365]
実データ分布をより忠実に表現する分類データセットを合成するためのフレームワークを提案する。
DataDream fine-tunes LoRA weights for the image generation model on the few real image before generated the training data using the adapt model。
次に、合成データを用いてCLIPのLoRA重みを微調整し、様々なデータセットに対する以前のアプローチよりも下流画像の分類を改善する。
論文 参考訳(メタデータ) (2024-07-15T17:10:31Z) - Distribution-Aware Data Expansion with Diffusion Models [55.979857976023695]
本研究では,分散型拡散モデルに基づくトレーニングフリーなデータ拡張フレームワークであるDistDiffを提案する。
DistDiffは、オリジナルデータのみにトレーニングされたモデルと比較して、さまざまなデータセットの精度を一貫して向上させる。
論文 参考訳(メタデータ) (2024-03-11T14:07:53Z) - Retrieval-Augmented Data Augmentation for Low-Resource Domain Tasks [66.87070857705994]
低リソース環境では、データ拡張に使用するシードデータサンプルの量は極めて少ない。
本稿では、他のデータセットから豊富なサンプルを組み込むことで、トレーニングデータを増強する新しい手法を提案する。
このアプローチは、生成されたデータが関連性だけでなく、限られたシードデータだけで達成できるものよりも多様であることを保証する。
論文 参考訳(メタデータ) (2024-02-21T02:45:46Z) - DatasetDM: Synthesizing Data with Perception Annotations Using Diffusion
Models [61.906934570771256]
多様な合成画像や知覚アノテーションを生成できる汎用データセット生成モデルを提案する。
本手法は,事前学習した拡散モデルに基づいて,テキスト誘導画像合成を知覚データ生成に拡張する。
拡散モデルのリッチ潜時コードはデコーダモジュールを用いて正確な認識アノテーションとして効果的に復号できることを示す。
論文 参考訳(メタデータ) (2023-08-11T14:38:11Z) - T-ADAF: Adaptive Data Augmentation Framework for Image Classification
Network based on Tensor T-product Operator [0.0]
本稿ではテンソルT-Product Operatorに基づくAdaptive Data Augmentation Frameworkを提案する。
1つの画像データを3倍にし、これら3つの画像から結果を得る。
数値実験により、我々のデータ拡張フレームワークは、元のニューラルネットワークモデルの性能を2%向上させることができることが示された。
論文 参考訳(メタデータ) (2023-06-07T08:30:44Z) - Training on Thin Air: Improve Image Classification with Generated Data [28.96941414724037]
Diffusion Inversionは、画像分類のための多種多様な高品質なトレーニングデータを生成するための、シンプルで効果的な方法である。
提案手法は,元のデータ分布を捕捉し,画像を安定拡散の潜在空間に反転させることにより,データカバレッジを確保する。
生成した画像が元のデータセットに取って代わることに成功した3つの重要なコンポーネントを特定します。
論文 参考訳(メタデータ) (2023-05-24T16:33:02Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。