論文の概要: Do We Need All the Synthetic Data? Towards Targeted Synthetic Image Augmentation via Diffusion Models
- arxiv url: http://arxiv.org/abs/2505.21574v1
- Date: Tue, 27 May 2025 07:27:03 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-29 17:35:50.177939
- Title: Do We Need All the Synthetic Data? Towards Targeted Synthetic Image Augmentation via Diffusion Models
- Title(参考訳): すべての合成データが必要か?拡散モデルによる目的の合成画像増強に向けて
- Authors: Dang Nguyen, Jiping Li, Jinghao Zheng, Baharan Mirzasoleiman,
- Abstract要約: トレーニングの初期段階で学習されていないデータの一部を合成的に増強すると、データセット全体のパフォーマンスが向上することを示す。
我々の手法は様々なシナリオでパフォーマンスを最大2.8%向上させる。
また、パフォーマンスをさらに向上させるために、既存の弱くて強力な拡張戦略で簡単にスタックできる。
- 参考スコア(独自算出の注目度): 12.472871440252105
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Synthetically augmenting training datasets with diffusion models has been an effective strategy for improving generalization of image classifiers. However, existing techniques struggle to ensure the diversity of generation and increase the size of the data by up to 10-30x to improve the in-distribution performance. In this work, we show that synthetically augmenting part of the data that is not learned early in training outperforms augmenting the entire dataset. By analyzing a two-layer CNN, we prove that this strategy improves generalization by promoting homogeneity in feature learning speed without amplifying noise. Our extensive experiments show that by augmenting only 30%-40% of the data, our method boosts the performance by up to 2.8% in a variety of scenarios, including training ResNet, ViT and DenseNet on CIFAR-10, CIFAR-100, and TinyImageNet, with a range of optimizers including SGD and SAM. Notably, our method applied with SGD outperforms the SOTA optimizer, SAM, on CIFAR-100 and TinyImageNet. It can also easily stack with existing weak and strong augmentation strategies to further boost the performance.
- Abstract(参考訳): 拡散モデルを用いて学習データセットを合成的に拡張することは,画像分類器の一般化向上に有効な戦略である。
しかし、既存の技術は、データ生成の多様性を確保し、データのサイズを最大10~30倍にし、分配性能を向上させるのに苦労している。
本研究は、トレーニングの初期段階で学習されていないデータの一部を合成的に増強することで、データセット全体のパフォーマンスが向上することを示す。
2層CNNを解析することにより、雑音を増幅することなく特徴学習速度の均一性を向上することにより、この戦略が一般化を向上させることを証明する。
実験の結果,データ量の30%~40%に留まらず,CIFAR-10,CIFAR-100,TinyImageNet上でのResNet,ViT,DenseNetのトレーニングなど,さまざまなシナリオにおけるパフォーマンスを最大2.8%向上させることができた。
特に,SGDを適用した手法は,CIFAR-100およびTinyImageNet上でSOTAオプティマイザSAMより優れていた。
また、パフォーマンスをさらに向上させるために、既存の弱くて強力な拡張戦略で簡単にスタックできる。
関連論文リスト
- Soft Augmentation for Image Classification [68.71067594724663]
本稿では,変分変換による拡張の一般化とソフト拡張を提案する。
ソフトターゲットは、より攻撃的なデータ拡張を可能にすることを示す。
また,ソフト拡張が自己教師付き分類タスクに一般化されることも示している。
論文 参考訳(メタデータ) (2022-11-09T01:04:06Z) - Data-Efficient Augmentation for Training Neural Networks [15.870155099135538]
本稿では,データポイントのサブセットを選択するための厳密な手法を提案する。
SVHNのCIFAR10では6.3倍,SVHNでは2.2倍の高速化を実現し,様々なサブセットサイズでベースラインを最大10%向上させる。
論文 参考訳(メタデータ) (2022-10-15T19:32:20Z) - To be Critical: Self-Calibrated Weakly Supervised Learning for Salient
Object Detection [95.21700830273221]
弱教師付き有色物体検出(WSOD)は,画像レベルのアノテーションを用いた有色度モデルの開発を目的としている。
擬似ラベルとネットワーク予測の相互校正ループを明確に設定し,自己校正学習戦略を提案する。
十分に整合したアノテーションを持つはるかに小さなデータセットであっても、モデルがより優れたパフォーマンスと一般化性を達成するのに役立ちます。
論文 参考訳(メタデータ) (2021-09-04T02:45:22Z) - Learning Representational Invariances for Data-Efficient Action
Recognition [52.23716087656834]
我々は,データ拡張戦略により,Kinetics-100,UCF-101,HMDB-51データセットのパフォーマンスが期待できることを示す。
また,完全な教師付き設定でデータ拡張戦略を検証し,性能向上を実証した。
論文 参考訳(メタデータ) (2021-03-30T17:59:49Z) - Ultra-Data-Efficient GAN Training: Drawing A Lottery Ticket First, Then
Training It Toughly [114.81028176850404]
限られたデータでGAN(generative adversarial network)を訓練すると、一般的に性能が低下し、モデルが崩壊する。
データハングリーGANトレーニングを2つのシーケンシャルサブプロブレムに分解する。
このような協調フレームワークにより、より低い複雑さとよりデータ効率のよいサブ問題に集中することができます。
論文 参考訳(メタデータ) (2021-02-28T05:20:29Z) - Dataset Condensation with Differentiable Siamese Augmentation [30.571335208276246]
大規模トレーニングセットを,ディープニューラルネットワークのトレーニングに使用可能な,はるかに小さな合成セットに集約することに注力する。
より有益な合成画像の合成にデータ拡張を有効活用できる微分可能なSiamese Augmentationを提案する。
本手法がMNIST, FashionMNIST, SVHN, CIFAR10に対して99.6%, 94.9%, 88.5%, 71.5%の相対的性能をそれぞれ達成していることを1%未満のデータで示した。
論文 参考訳(メタデータ) (2021-02-16T16:32:21Z) - Multiclass non-Adversarial Image Synthesis, with Application to
Classification from Very Small Sample [6.243995448840211]
我々は、新しい非逆生成法 - LA(Clustered Optimization of LAtent space)を提案する。
本手法は,全データレギュレーションにおいて,教師なしの多様なマルチクラス画像を生成することができる。
ラベル付き画像の小さなサンプルのみが、追加のラベル付きデータにアクセスせずにトレーニングできる小データ体制では、同じ量のデータでトレーニングされた最先端のGANモデルを上回る結果が得られる。
論文 参考訳(メタデータ) (2020-11-25T18:47:27Z) - Differentiable Augmentation for Data-Efficient GAN Training [48.920992130257595]
DiffAugmentは,実検体と偽検体の両方に様々な種類の微分可能拡張を付与することにより,GANのデータ効率を向上させる簡易な手法である。
本手法は,既存の移動学習アルゴリズムと同等でありながら,事前学習することなく,100個の画像のみを用いて高忠実度画像を生成することができる。
論文 参考訳(メタデータ) (2020-06-18T17:59:01Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。