論文の概要: Expanding Small-Scale Datasets with Guided Imagination
- arxiv url: http://arxiv.org/abs/2211.13976v1
- Date: Fri, 25 Nov 2022 09:38:22 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-28 15:24:14.765510
- Title: Expanding Small-Scale Datasets with Guided Imagination
- Title(参考訳): ガイドイマジネーションによる小規模データセットの拡張
- Authors: Yifan Zhang, Daquan Zhou, Bryan Hooi, Kai Wang, Jiashi Feng
- Abstract要約: 新しいタスクデータセットの拡張は、小さなデータセットを拡張するために、ラベル付きサンプルを自動的に生成することを目指している。
GIFは、意味論的に意味のある空間において、シードデータの潜伏した特徴を最適化することで想像力を発揮する。
GIFは、異なる領域におけるデータセットの拡張に有効であり、平均して6つの天然画像データセットで29.9%の精度向上、平均して3つの医用画像データセットで12.3%の精度向上を実現している。
- 参考スコア(独自算出の注目度): 93.6889734249636
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The power of Deep Neural Networks (DNNs) depends heavily on the training data
quantity, quality and diversity. However, in many real scenarios, it is costly
and time-consuming to collect and annotate large-scale data. This has severely
hindered the application of DNNs. To address this challenge, we explore a new
task of dataset expansion, which seeks to automatically create new labeled
samples to expand a small dataset. To this end, we present a Guided Imagination
Framework (GIF) that leverages the recently developed big generative models
(e.g., DALL-E2) and reconstruction models (e.g., MAE) to "imagine" and create
informative new data from seed data to expand small datasets. Specifically, GIF
conducts imagination by optimizing the latent features of seed data in a
semantically meaningful space, which are fed into the generative models to
generate photo-realistic images with new contents. For guiding the imagination
towards creating samples useful for model training, we exploit the zero-shot
recognition ability of CLIP and introduce three criteria to encourage
informative sample generation, i.e., prediction consistency, entropy
maximization and diversity promotion. With these essential criteria as
guidance, GIF works well for expanding datasets in different domains, leading
to 29.9% accuracy gain on average over six natural image datasets, and 12.3%
accuracy gain on average over three medical image datasets.
- Abstract(参考訳): ディープニューラルネットワーク(DNN)のパワーは、トレーニングデータ量、品質、多様性に大きく依存する。
しかし、多くの現実のシナリオでは、大規模データの収集と注釈付けは費用がかかり、時間がかかる。
これはDNNの適用を著しく妨げている。
この課題に対処するため、データセット拡張という新たなタスクを検討し、小さなデータセットを拡張するために、ラベル付きサンプルを自動生成する。
この目的のために、最近開発された大規模生成モデル(例えば、DALL-E2)と再構成モデル(例えば、MAE)を活用して、シードデータから情報的な新しいデータを作成し、小さなデータセットを拡張するガイドImagination Framework(GIF)を提案する。
具体的には、シードデータの潜在的な特徴を意味的に意味のある空間に最適化し、生成モデルに入力し、新たなコンテンツでフォトリアリスティックな画像を生成することで想像力を発揮する。
モデルトレーニングに有用なサンプルを作成するための想像力を導くために,CLIPのゼロショット認識能力を活用し,予測一貫性,エントロピー最大化,多様性向上の3つの基準を導入する。
これらの必須基準をガイダンスとして、gifは異なる領域のデータセットを拡張するのに適しており、6つの自然画像データセットの平均で29.9%、医療画像データセットで平均12.3%の精度向上をもたらす。
関連論文リスト
- One Category One Prompt: Dataset Distillation using Diffusion Models [22.512552596310176]
本稿では,D3M(Diffusion Models)をデータセット蒸留の新たなパラダイムとして導入し,生成的テキスト・画像基盤モデルの最近の進歩を活用する。
提案手法では,テキストから画像への合成モデルを微調整する手法であるテキストインバージョンを用いて,大規模データセットの簡潔かつ情報的な表現を生成する。
論文 参考訳(メタデータ) (2024-03-11T20:23:59Z) - Distribution-Aware Data Expansion with Diffusion Models [31.547348897780502]
分散認識拡散モデルに基づく効果的なデータ拡張フレームワークであるDistDiffを提案する。
分散一貫性のあるサンプルを生成する能力を示し,データ拡張タスクの大幅な改善を実現した。
論文 参考訳(メタデータ) (2024-03-11T14:07:53Z) - Retrieval-Augmented Data Augmentation for Low-Resource Domain Tasks [66.87070857705994]
低リソース環境では、データ拡張に使用するシードデータサンプルの量は極めて少ない。
本稿では、他のデータセットから豊富なサンプルを組み込むことで、トレーニングデータを増強する新しい手法を提案する。
このアプローチは、生成されたデータが関連性だけでなく、限られたシードデータだけで達成できるものよりも多様であることを保証する。
論文 参考訳(メタデータ) (2024-02-21T02:45:46Z) - Additional Look into GAN-based Augmentation for Deep Learning COVID-19
Image Classification [57.1795052451257]
我々は,GANに基づく拡張性能のデータセットサイズ依存性について,小サンプルに着目して検討した。
両方のセットでStyleGAN2-ADAをトレーニングし、生成した画像の品質を検証した後、マルチクラス分類問題における拡張アプローチの1つとしてトレーニングされたGANを使用する。
GANベースの拡張アプローチは、中規模および大規模データセットでは古典的な拡張に匹敵するが、より小さなデータセットでは不十分である。
論文 参考訳(メタデータ) (2024-01-26T08:28:13Z) - PoseGen: Learning to Generate 3D Human Pose Dataset with NeRF [20.841557239621995]
本稿では,Neural Radiance Fields (NeRF) を用いた3次元ポーズデータセット生成のためのエンドツーエンドフレームワークを提案する。
NeRFはデータ駆動型であり、人間の3Dスキャンを必要としない。そのため、データ生成にNeRFを用いることは、便利なユーザ固有のデータ生成のための新しい方向である。
論文 参考訳(メタデータ) (2023-12-22T18:50:15Z) - DatasetDM: Synthesizing Data with Perception Annotations Using Diffusion
Models [61.906934570771256]
多様な合成画像や知覚アノテーションを生成できる汎用データセット生成モデルを提案する。
本手法は,事前学習した拡散モデルに基づいて,テキスト誘導画像合成を知覚データ生成に拡張する。
拡散モデルのリッチ潜時コードはデコーダモジュールを用いて正確な認識アノテーションとして効果的に復号できることを示す。
論文 参考訳(メタデータ) (2023-08-11T14:38:11Z) - T-ADAF: Adaptive Data Augmentation Framework for Image Classification
Network based on Tensor T-product Operator [0.0]
本稿ではテンソルT-Product Operatorに基づくAdaptive Data Augmentation Frameworkを提案する。
1つの画像データを3倍にし、これら3つの画像から結果を得る。
数値実験により、我々のデータ拡張フレームワークは、元のニューラルネットワークモデルの性能を2%向上させることができることが示された。
論文 参考訳(メタデータ) (2023-06-07T08:30:44Z) - Training on Thin Air: Improve Image Classification with Generated Data [28.96941414724037]
Diffusion Inversionは、画像分類のための多種多様な高品質なトレーニングデータを生成するための、シンプルで効果的な方法である。
提案手法は,元のデータ分布を捕捉し,画像を安定拡散の潜在空間に反転させることにより,データカバレッジを確保する。
生成した画像が元のデータセットに取って代わることに成功した3つの重要なコンポーネントを特定します。
論文 参考訳(メタデータ) (2023-05-24T16:33:02Z) - Dataset Cartography: Mapping and Diagnosing Datasets with Training
Dynamics [118.75207687144817]
我々はデータセットを特徴付け、診断するモデルベースのツールであるData Mapsを紹介した。
私たちは、トレーニング中の個々のインスタンス上でのモデルの振る舞いという、ほとんど無視された情報のソースを活用しています。
以上の結果から,データ量から品質へのフォーカスの変化は,ロバストなモデルとアウト・オブ・ディストリビューションの一般化に繋がる可能性が示唆された。
論文 参考訳(メタデータ) (2020-09-22T20:19:41Z) - Neural Data Server: A Large-Scale Search Engine for Transfer Learning
Data [78.74367441804183]
我々は,ターゲットドメインに最も有用な転送学習データを見つけるための大規模検索エンジンであるNeural Data Server (NDS)を紹介した。
NDSは、いくつかの人気のある画像データセットをインデックスするデータサーバで構成され、クライアントにデータを推奨することを目的としている。
我々は,NDSが様々な伝達学習シナリオにおいて有効であることを示し,複数のターゲットデータセットに対して最先端の性能を示す。
論文 参考訳(メタデータ) (2020-01-09T01:21:30Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。