論文の概要: Expanding Small-Scale Datasets with Guided Imagination
- arxiv url: http://arxiv.org/abs/2211.13976v6
- Date: Tue, 10 Oct 2023 07:18:46 GMT
- ステータス: 処理完了
- システム内更新日: 2023-10-13 15:51:21.232644
- Title: Expanding Small-Scale Datasets with Guided Imagination
- Title(参考訳): ガイドイマジネーションによる小規模データセットの拡張
- Authors: Yifan Zhang, Daquan Zhou, Bryan Hooi, Kai Wang, Jiashi Feng
- Abstract要約: データセット拡張は、新しいラベル付きサンプルを自動生成することによって、使用可能な小さなデータセットを拡張することを目的とした、新しいタスクである。
GIFは、先行モデルの意味論的意味のある空間において、シードデータの潜伏した特徴を最適化することにより、データイマジネーションを行う。
GIF-SDは、SDによる非ガイド展開よりも、自然画像データセットのモデル精度が13.5%高い。
- 参考スコア(独自算出の注目度): 92.5276783917845
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The power of DNNs relies heavily on the quantity and quality of training
data. However, collecting and annotating data on a large scale is often
expensive and time-consuming. To address this issue, we explore a new task,
termed dataset expansion, aimed at expanding a ready-to-use small dataset by
automatically creating new labeled samples. To this end, we present a Guided
Imagination Framework (GIF) that leverages cutting-edge generative models like
DALL-E2 and Stable Diffusion (SD) to "imagine" and create informative new data
from the input seed data. Specifically, GIF conducts data imagination by
optimizing the latent features of the seed data in the semantically meaningful
space of the prior model, resulting in the creation of photo-realistic images
with new content. To guide the imagination towards creating informative samples
for model training, we introduce two key criteria, i.e., class-maintained
information boosting and sample diversity promotion. These criteria are
verified to be essential for effective dataset expansion: GIF-SD obtains 13.5%
higher model accuracy on natural image datasets than unguided expansion with
SD. With these essential criteria, GIF successfully expands small datasets in
various scenarios, boosting model accuracy by 36.9% on average over six natural
image datasets and by 13.5% on average over three medical datasets. The source
code is available at https://github.com/Vanint/DatasetExpansion.
- Abstract(参考訳): DNNのパワーは、トレーニングデータの量と品質に大きく依存している。
しかし、大規模なデータの収集と注釈は、しばしば高価で時間がかかります。
この問題に対処するために、新しいラベル付きサンプルを自動生成することで、利用可能な小さなデータセットを拡張することを目的とした、データセット拡張と呼ばれる新しいタスクを探索する。
この目的のために、DALL-E2やStable Diffusion(SD)といった最先端の生成モデルを活用して、入力されたシードデータから「想像」し、情報的な新しいデータを生成するガイドImagination Framework(GIF)を提案する。
具体的には、シードデータの潜在的な特徴を事前モデルの意味的に意味のある空間に最適化することで、新たなコンテンツによるフォトリアリスティックな画像を作成することで、データの想像力を高める。
モデルトレーニングのための情報的サンプル作成に向けたイマジネーションを導くため、クラス維持情報強化とサンプル多様性促進という2つの重要な基準を導入する。
gif-sdは、sdによる誘導されていない拡張よりも、自然画像データセットのモデル精度が13.5%高い。
これらの必須基準により、GIFは様々なシナリオで小さなデータセットを拡張し、モデル精度を6つの天然画像データセットで平均36.9%、医療データセットで平均13.5%向上させることに成功した。
ソースコードはhttps://github.com/Vanint/DatasetExpansionで入手できる。
関連論文リスト
- One Category One Prompt: Dataset Distillation using Diffusion Models [22.512552596310176]
本稿では,D3M(Diffusion Models)をデータセット蒸留の新たなパラダイムとして導入し,生成的テキスト・画像基盤モデルの最近の進歩を活用する。
提案手法では,テキストから画像への合成モデルを微調整する手法であるテキストインバージョンを用いて,大規模データセットの簡潔かつ情報的な表現を生成する。
論文 参考訳(メタデータ) (2024-03-11T20:23:59Z) - Distribution-Aware Data Expansion with Diffusion Models [31.547348897780502]
分散認識拡散モデルに基づく効果的なデータ拡張フレームワークであるDistDiffを提案する。
分散一貫性のあるサンプルを生成する能力を示し,データ拡張タスクの大幅な改善を実現した。
論文 参考訳(メタデータ) (2024-03-11T14:07:53Z) - Retrieval-Augmented Data Augmentation for Low-Resource Domain Tasks [66.87070857705994]
低リソース環境では、データ拡張に使用するシードデータサンプルの量は極めて少ない。
本稿では、他のデータセットから豊富なサンプルを組み込むことで、トレーニングデータを増強する新しい手法を提案する。
このアプローチは、生成されたデータが関連性だけでなく、限られたシードデータだけで達成できるものよりも多様であることを保証する。
論文 参考訳(メタデータ) (2024-02-21T02:45:46Z) - Additional Look into GAN-based Augmentation for Deep Learning COVID-19
Image Classification [57.1795052451257]
我々は,GANに基づく拡張性能のデータセットサイズ依存性について,小サンプルに着目して検討した。
両方のセットでStyleGAN2-ADAをトレーニングし、生成した画像の品質を検証した後、マルチクラス分類問題における拡張アプローチの1つとしてトレーニングされたGANを使用する。
GANベースの拡張アプローチは、中規模および大規模データセットでは古典的な拡張に匹敵するが、より小さなデータセットでは不十分である。
論文 参考訳(メタデータ) (2024-01-26T08:28:13Z) - PoseGen: Learning to Generate 3D Human Pose Dataset with NeRF [20.841557239621995]
本稿では,Neural Radiance Fields (NeRF) を用いた3次元ポーズデータセット生成のためのエンドツーエンドフレームワークを提案する。
NeRFはデータ駆動型であり、人間の3Dスキャンを必要としない。そのため、データ生成にNeRFを用いることは、便利なユーザ固有のデータ生成のための新しい方向である。
論文 参考訳(メタデータ) (2023-12-22T18:50:15Z) - DatasetDM: Synthesizing Data with Perception Annotations Using Diffusion
Models [61.906934570771256]
多様な合成画像や知覚アノテーションを生成できる汎用データセット生成モデルを提案する。
本手法は,事前学習した拡散モデルに基づいて,テキスト誘導画像合成を知覚データ生成に拡張する。
拡散モデルのリッチ潜時コードはデコーダモジュールを用いて正確な認識アノテーションとして効果的に復号できることを示す。
論文 参考訳(メタデータ) (2023-08-11T14:38:11Z) - T-ADAF: Adaptive Data Augmentation Framework for Image Classification
Network based on Tensor T-product Operator [0.0]
本稿ではテンソルT-Product Operatorに基づくAdaptive Data Augmentation Frameworkを提案する。
1つの画像データを3倍にし、これら3つの画像から結果を得る。
数値実験により、我々のデータ拡張フレームワークは、元のニューラルネットワークモデルの性能を2%向上させることができることが示された。
論文 参考訳(メタデータ) (2023-06-07T08:30:44Z) - Training on Thin Air: Improve Image Classification with Generated Data [28.96941414724037]
Diffusion Inversionは、画像分類のための多種多様な高品質なトレーニングデータを生成するための、シンプルで効果的な方法である。
提案手法は,元のデータ分布を捕捉し,画像を安定拡散の潜在空間に反転させることにより,データカバレッジを確保する。
生成した画像が元のデータセットに取って代わることに成功した3つの重要なコンポーネントを特定します。
論文 参考訳(メタデータ) (2023-05-24T16:33:02Z) - Dataset Cartography: Mapping and Diagnosing Datasets with Training
Dynamics [118.75207687144817]
我々はデータセットを特徴付け、診断するモデルベースのツールであるData Mapsを紹介した。
私たちは、トレーニング中の個々のインスタンス上でのモデルの振る舞いという、ほとんど無視された情報のソースを活用しています。
以上の結果から,データ量から品質へのフォーカスの変化は,ロバストなモデルとアウト・オブ・ディストリビューションの一般化に繋がる可能性が示唆された。
論文 参考訳(メタデータ) (2020-09-22T20:19:41Z) - Neural Data Server: A Large-Scale Search Engine for Transfer Learning
Data [78.74367441804183]
我々は,ターゲットドメインに最も有用な転送学習データを見つけるための大規模検索エンジンであるNeural Data Server (NDS)を紹介した。
NDSは、いくつかの人気のある画像データセットをインデックスするデータサーバで構成され、クライアントにデータを推奨することを目的としている。
我々は,NDSが様々な伝達学習シナリオにおいて有効であることを示し,複数のターゲットデータセットに対して最先端の性能を示す。
論文 参考訳(メタデータ) (2020-01-09T01:21:30Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。