論文の概要: DiffuseMix: Label-Preserving Data Augmentation with Diffusion Models
- arxiv url: http://arxiv.org/abs/2405.14881v1
- Date: Fri, 5 Apr 2024 05:31:02 GMT
- ステータス: 処理完了
- システム内更新日: 2024-07-01 08:29:41.499514
- Title: DiffuseMix: Label-Preserving Data Augmentation with Diffusion Models
- Title(参考訳): DiffuseMix:拡散モデルによるラベル保存データ拡張
- Authors: Khawar Islam, Muhammad Zaigham Zaheer, Arif Mahmood, Karthik Nandakumar,
- Abstract要約: 近年、ディープニューラルネットワークの一般化を改善するために、画像混合に基づく拡張技術が数多く導入されている。
これらの手法では、2つ以上のランダムに選択された自然画像が混合され、拡張画像を生成する。
DiffuseMixを提案する。DiffuseMixは、拡散モデルを利用してトレーニング画像を再構成する新しいデータ拡張手法である。
- 参考スコア(独自算出の注目度): 18.44432223381586
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Recently, a number of image-mixing-based augmentation techniques have been introduced to improve the generalization of deep neural networks. In these techniques, two or more randomly selected natural images are mixed together to generate an augmented image. Such methods may not only omit important portions of the input images but also introduce label ambiguities by mixing images across labels resulting in misleading supervisory signals. To address these limitations, we propose DiffuseMix, a novel data augmentation technique that leverages a diffusion model to reshape training images, supervised by our bespoke conditional prompts. First, concatenation of a partial natural image and its generated counterpart is obtained which helps in avoiding the generation of unrealistic images or label ambiguities. Then, to enhance resilience against adversarial attacks and improves safety measures, a randomly selected structural pattern from a set of fractal images is blended into the concatenated image to form the final augmented image for training. Our empirical results on seven different datasets reveal that DiffuseMix achieves superior performance compared to existing state-of the-art methods on tasks including general classification,fine-grained classification, fine-tuning, data scarcity, and adversarial robustness. Augmented datasets and codes are available here: https://diffusemix.github.io/
- Abstract(参考訳): 近年、ディープニューラルネットワークの一般化を改善するために、画像混合に基づく拡張技術が数多く導入されている。
これらの手法では、2つ以上のランダムに選択された自然画像が混合され、拡張画像を生成する。
このような手法は、入力画像の重要な部分を省略するだけでなく、ラベル間で画像を混合することでラベルの曖昧さを導入し、誤った監督信号をもたらす可能性がある。
これらの制約に対処するために,拡散モデルを利用した新しいデータ拡張手法であるDiffuseMixを提案する。
まず、非現実的な画像やラベルの曖昧さの発生を避けるのに役立つ部分自然な画像とその生成した画像の連結を得る。
そして、敵攻撃に対する弾力性を高め、安全対策を改善するため、一組のフラクタル画像からランダムに選択された構造パターンを連結画像にブレンドし、トレーニング用の最終拡張画像を形成する。
DiffuseMixは, 一般的な分類, きめ細かな分類, 微調整, データの不足, 対向的堅牢性といったタスクにおいて, 従来の最先端の手法と比較して, 優れた性能を発揮することを示す。
拡張データセットとコードはここで入手できる。
関連論文リスト
- Balancing Label Imbalance in Federated Environments Using Only Mixup and Artificially-Labeled Noise [25.764939424940284]
擬似画像を用いて、特定のラベルクラスの未表現サンプルを埋め込む方法を示す。
既存のアルゴリズムは擬似イメージのみをトレーニングしていますが、拡張されたクライアントデータセットは実画像と擬似イメージの両方で構成されています。
ラベル付きCIFAR-10およびMNIST訓練において,混合と自然雑音による少量の増強が顕著に改善することが実証された。
論文 参考訳(メタデータ) (2024-09-20T05:44:43Z) - Enhance Image Classification via Inter-Class Image Mixup with Diffusion Model [80.61157097223058]
画像分類性能を高めるための一般的な戦略は、T2Iモデルによって生成された合成画像でトレーニングセットを増強することである。
本研究では,既存のデータ拡張技術の欠点について検討する。
Diff-Mixと呼ばれる革新的なクラス間データ拡張手法を導入する。
論文 参考訳(メタデータ) (2024-03-28T17:23:45Z) - Improving Diffusion-Based Image Synthesis with Context Prediction [49.186366441954846]
既存の拡散モデルは、主に、劣化した画像から空間軸に沿って画素幅または特徴幅の制約で入力画像を再構成しようとする。
文脈予測を用いて拡散に基づく画像合成を改善するためのConPreDiffを提案する。
我々のConPreDiffは従来手法を一貫して上回り、ゼロショットFIDスコア6.21で、MS-COCO上で新たなSOTAテキスト・画像生成結果を達成する。
論文 参考訳(メタデータ) (2024-01-04T01:10:56Z) - Discriminative Class Tokens for Text-to-Image Diffusion Models [107.98436819341592]
自由形式のテキストの表現可能性を利用した非侵襲的な微調整手法を提案する。
本手法は,従来の微調整法と比較して高速で,クラス内の画像の収集を必要としない。
i)標準拡散モデルよりも正確で高品質な生成画像,(ii)低リソース環境でのトレーニングデータの拡張,および(iii)誘導分類器の訓練に使用されるデータ情報を明らかにする。
論文 参考訳(メタデータ) (2023-03-30T05:25:20Z) - Effective Data Augmentation With Diffusion Models [65.09758931804478]
我々は、事前訓練されたテキスト・画像拡散モデルによりパラメータ化された画像・画像変換によるデータ拡張の多様性の欠如に対処する。
本手法は,市販の拡散モデルを用いて画像のセマンティクスを編集し,いくつかのラベル付き例から新しい視覚概念に一般化する。
本手法は,実世界の雑草認識タスクと数ショット画像分類タスクにおいて評価し,テスト領域における精度の向上を観察する。
論文 参考訳(メタデータ) (2023-02-07T20:42:28Z) - Feature transforms for image data augmentation [74.12025519234153]
画像分類において、多くの拡張アプローチは単純な画像操作アルゴリズムを利用する。
本研究では,14種類の拡張アプローチを組み合わせて生成した画像を追加することで,データレベルでのアンサンブルを構築する。
事前トレーニングされたResNet50ネットワークは、各拡張メソッドから派生した画像を含むトレーニングセットに基づいて微調整される。
論文 参考訳(メタデータ) (2022-01-24T14:12:29Z) - Survey: Image Mixing and Deleting for Data Augmentation [0.0]
画像のミキシングと削除は、データ拡張のサブ領域である。
このアプローチでトレーニングされたモデルは、うまく動作し、一般化することが示されている。
計算コストの低減と近年の成功により,画像の混合・削除技術が数多く提案されている。
論文 参考訳(メタデータ) (2021-06-13T20:32:24Z) - SnapMix: Semantically Proportional Mixing for Augmenting Fine-grained
Data [124.95585891086894]
提案はSemantically Proportional Mixing(SnapMix)と呼ばれる
クラスアクティベーションマップ(CAM)を利用して、きめ細かいデータを強化する際にラベルノイズを低減します。
本手法は既存の混合型アプローチを一貫して上回っている。
論文 参考訳(メタデータ) (2020-12-09T03:37:30Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。