論文の概要: Distribution-Aware Data Expansion with Diffusion Models
- arxiv url: http://arxiv.org/abs/2403.06741v1
- Date: Mon, 11 Mar 2024 14:07:53 GMT
- ステータス: 処理完了
- システム内更新日: 2024-03-12 18:54:31.342273
- Title: Distribution-Aware Data Expansion with Diffusion Models
- Title(参考訳): 拡散モデルを用いた分散認識データ拡張
- Authors: Haowei Zhu, Ling Yang, Jun-Hai Yong, Wentao Zhang, Bin Wang
- Abstract要約: 分散認識拡散モデルに基づく効果的なデータ拡張フレームワークであるDistDiffを提案する。
分散一貫性のあるサンプルを生成する能力を示し,データ拡張タスクの大幅な改善を実現した。
- 参考スコア(独自算出の注目度): 31.547348897780502
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The scale and quality of a dataset significantly impact the performance of
deep models. However, acquiring large-scale annotated datasets is both a costly
and time-consuming endeavor. To address this challenge, dataset expansion
technologies aim to automatically augment datasets, unlocking the full
potential of deep models. Current data expansion methods encompass image
transformation-based and synthesis-based methods. The transformation-based
methods introduce only local variations, resulting in poor diversity. While
image synthesis-based methods can create entirely new content, significantly
enhancing informativeness. However, existing synthesis methods carry the risk
of distribution deviations, potentially degrading model performance with
out-of-distribution samples. In this paper, we propose DistDiff, an effective
data expansion framework based on the distribution-aware diffusion model.
DistDiff constructs hierarchical prototypes to approximate the real data
distribution, optimizing latent data points within diffusion models with
hierarchical energy guidance. We demonstrate its ability to generate
distribution-consistent samples, achieving substantial improvements in data
expansion tasks. Specifically, without additional training, DistDiff achieves a
30.7% improvement in accuracy across six image datasets compared to the model
trained on original datasets and a 9.8% improvement compared to the
state-of-the-art diffusion-based method. Our code is available at
https://github.com/haoweiz23/DistDiff
- Abstract(参考訳): データセットのスケールと品質は、ディープモデルのパフォーマンスに大きな影響を与えます。
しかし、大規模な注釈付きデータセットの取得はコストも時間もかかる作業である。
この課題に対処するため、データセット拡張技術はデータセットを自動的に拡張し、深層モデルの可能性を最大限に活用することを目指している。
現在のデータ拡張手法は、画像変換ベースと合成ベースを包含する。
変換に基づく手法は局所的な変化のみを導入し、結果として多様性は低下する。
画像合成に基づく手法は、全く新しいコンテンツを作成できるが、情報性が著しく向上する。
しかし、既存の合成手法は分布偏差のリスクを負い、分散サンプルでモデル性能を低下させる可能性がある。
本稿では,分散対応拡散モデルに基づく効率的なデータ拡張フレームワークであるDistDiffを提案する。
DistDiffは、階層的なプロトタイプを構築し、実際のデータ分布を近似し、階層的なエネルギー誘導による拡散モデル内の潜在データポイントを最適化する。
分散一貫性のあるサンプルを生成する能力を示し、データ拡張タスクを大幅に改善する。
具体的には、追加のトレーニングなしで、ディストディフは6つの画像データセットでトレーニングされたモデルと比較して30.7%の精度向上と、最先端の拡散ベース法と比較して9.8%の改善を達成している。
私たちのコードはhttps://github.com/haoweiz23/DistDiffで利用可能です。
関連論文リスト
- TabDiff: a Multi-Modal Diffusion Model for Tabular Data Generation [91.50296404732902]
1つのモデルで表データのマルチモーダル分布をモデル化する共同拡散フレームワークであるTabDiffを紹介する。
我々の重要な革新は、数値データと分類データのための連立連続時間拡散プロセスの開発である。
TabDiffは、既存の競合ベースラインよりも優れた平均性能を実現し、ペアワイドカラム相関推定における最先端モデルよりも最大で22.5%改善されている。
論文 参考訳(メタデータ) (2024-10-27T22:58:47Z) - Erase, then Redraw: A Novel Data Augmentation Approach for Free Space Detection Using Diffusion Model [5.57325257338134]
従来のデータ拡張方法は、ハイレベルなセマンティック属性を変更することはできない。
画像から画像への変換をパラメータ化するためのテキスト間拡散モデルを提案する。
我々は、元のデータセットから実際のオブジェクトのインスタンスを消去し、削除されたリージョンで同様の意味を持つ新しいインスタンスを生成することで、この目標を達成する。
論文 参考訳(メタデータ) (2024-09-30T10:21:54Z) - A Simple Background Augmentation Method for Object Detection with Diffusion Model [53.32935683257045]
コンピュータビジョンでは、データの多様性の欠如がモデル性能を損なうことはよく知られている。
本稿では, 生成モデルの進歩を生かして, 単純かつ効果的なデータ拡張手法を提案する。
背景強化は、特にモデルの堅牢性と一般化能力を大幅に改善する。
論文 参考訳(メタデータ) (2024-08-01T07:40:00Z) - Generative Expansion of Small Datasets: An Expansive Graph Approach [13.053285552524052]
最小限のサンプルから大規模で情報豊富なデータセットを生成する拡張合成モデルを提案する。
自己アテンション層と最適なトランスポートを持つオートエンコーダは、分散一貫性を洗練させる。
結果は同等のパフォーマンスを示し、モデルがトレーニングデータを効果的に増強する可能性を示している。
論文 参考訳(メタデータ) (2024-06-25T02:59:02Z) - Fake It Till Make It: Federated Learning with Consensus-Oriented
Generation [52.82176415223988]
コンセンサス指向生成による連合学習(FedCOG)を提案する。
FedCOGは、補完的なデータ生成と知識蒸留に基づくモデルトレーニングという、クライアント側の2つの重要なコンポーネントで構成されています。
古典的および実世界のFLデータセットの実験は、FedCOGが一貫して最先端の手法より優れていることを示している。
論文 参考訳(メタデータ) (2023-12-10T18:49:59Z) - Improving Out-of-Distribution Robustness of Classifiers via Generative
Interpolation [56.620403243640396]
ディープニューラルネットワークは、独立かつ同一に分散されたデータ(すなわち、d)から学習する上で、優れたパフォーマンスを達成する。
しかし、アウト・オブ・ディストリビューション(OoD)データを扱う場合、その性能は著しく低下する。
多様なOoDサンプルを合成するために,複数のドメインから学習した生成モデルを融合するための生成補間法(Generative Interpolation)を開発した。
論文 参考訳(メタデータ) (2023-07-23T03:53:53Z) - Phoenix: A Federated Generative Diffusion Model [6.09170287691728]
大規模な集中型データセットで生成モデルをトレーニングすることで、データのプライバシやセキュリティ、アクセシビリティといった面での課題が発生する可能性がある。
本稿では,フェデレートラーニング(FL)技術を用いて,複数のデータソースにまたがる拡散確率モデル(DDPM)の学習手法を提案する。
論文 参考訳(メタデータ) (2023-06-07T01:43:09Z) - Phased Data Augmentation for Training a Likelihood-Based Generative Model with Limited Data [0.0]
生成モデルは現実的なイメージの作成に優れていますが、トレーニングのための広範なデータセットに依存しているため、大きな課題があります。
現在のデータ効率の手法はGANアーキテクチャに重点を置いており、他の生成モデルの訓練にギャップを残している。
位相データ拡張(phased data augmentation)は、このギャップに対処する新しい手法であり、データ分散に固有の変更を加えることなく、限られたデータシナリオでのトレーニングを最適化する。
論文 参考訳(メタデータ) (2023-05-22T03:38:59Z) - Deep Variational Models for Collaborative Filtering-based Recommender
Systems [63.995130144110156]
ディープラーニングは、リコメンダシステムの結果を改善するために、正確な協調フィルタリングモデルを提供する。
提案するモデルは, 深層建築の潜伏空間において, 変分概念を注入性に適用する。
提案手法は, 入射雑音効果を超える変動エンリッチメントのシナリオにおいて, 提案手法の優位性を示す。
論文 参考訳(メタデータ) (2021-07-27T08:59:39Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。