論文の概要: DetDiffusion: Synergizing Generative and Perceptive Models for Enhanced Data Generation and Perception
- arxiv url: http://arxiv.org/abs/2403.13304v1
- Date: Wed, 20 Mar 2024 04:58:03 GMT
- ステータス: 処理完了
- システム内更新日: 2024-03-21 17:58:10.493611
- Title: DetDiffusion: Synergizing Generative and Perceptive Models for Enhanced Data Generation and Perception
- Title(参考訳): DetDiffusion:データ生成と知覚の強化のための生成モデルと知覚モデルの統合
- Authors: Yibo Wang, Ruiyuan Gao, Kai Chen, Kaiqiang Zhou, Yingjie Cai, Lanqing Hong, Zhenguo Li, Lihui Jiang, Dit-Yan Yeung, Qiang Xu, Kai Zhang,
- Abstract要約: 現在の知覚モデルは、リソース集約的なデータセットに大きく依存している。
セグメンテーションを通じて知覚認識損失(P.A.損失)を導入し、品質と制御性の両方を改善した。
本手法は,世代間における知覚認識属性(P.A. Attr)の抽出と利用により,データ拡張をカスタマイズする。
- 参考スコア(独自算出の注目度): 78.26734070960886
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Current perceptive models heavily depend on resource-intensive datasets, prompting the need for innovative solutions. Leveraging recent advances in diffusion models, synthetic data, by constructing image inputs from various annotations, proves beneficial for downstream tasks. While prior methods have separately addressed generative and perceptive models, DetDiffusion, for the first time, harmonizes both, tackling the challenges in generating effective data for perceptive models. To enhance image generation with perceptive models, we introduce perception-aware loss (P.A. loss) through segmentation, improving both quality and controllability. To boost the performance of specific perceptive models, our method customizes data augmentation by extracting and utilizing perception-aware attribute (P.A. Attr) during generation. Experimental results from the object detection task highlight DetDiffusion's superior performance, establishing a new state-of-the-art in layout-guided generation. Furthermore, image syntheses from DetDiffusion can effectively augment training data, significantly enhancing downstream detection performance.
- Abstract(参考訳): 現在の知覚モデルはリソース集約的なデータセットに大きく依存しており、革新的なソリューションの必要性を喚起している。
近年の拡散モデル、合成データを活用することで、様々なアノテーションから画像入力を構築することで、下流タスクに有益であることが証明されている。
従来の手法は生成モデルと知覚モデルに別々に対応しているが、DetDiffusionは初めて両者を調和させ、知覚モデルに効果的なデータを生成する上での課題に取り組む。
知覚モデルによる画像生成を向上させるため,セグメンテーションによる知覚認識損失(P.A.損失)を導入し,品質と制御性の両方を改善した。
特定の知覚モデルの性能を高めるため,本手法は生成中の知覚認識属性(P.A. Attr)を抽出し,活用することにより,データ拡張をカスタマイズする。
オブジェクト検出タスクによる実験結果では、DetDiffusionの優れたパフォーマンスが強調され、レイアウト誘導生成における新しい最先端が確立された。
さらに、DetDiffusionの画像合成は、トレーニングデータを効果的に増強し、下流検出性能を大幅に向上させることができる。
関連論文リスト
- Bring the Power of Diffusion Model to Defect Detection [0.0]
拡散確率モデル(DDPM)は,特徴リポジトリとして構築する認知過程の特徴を抽出するために事前訓練される。
待ち行列特徴を再構成してフィルタして高次元DDPM特徴を得る。
実験結果から,本手法はいくつかの産業データセット上での競合的な結果が得られることが示された。
論文 参考訳(メタデータ) (2024-08-25T14:28:49Z) - A Simple Background Augmentation Method for Object Detection with Diffusion Model [53.32935683257045]
コンピュータビジョンでは、データの多様性の欠如がモデル性能を損なうことはよく知られている。
本稿では, 生成モデルの進歩を生かして, 単純かつ効果的なデータ拡張手法を提案する。
背景強化は、特にモデルの堅牢性と一般化能力を大幅に改善する。
論文 参考訳(メタデータ) (2024-08-01T07:40:00Z) - Self-Play Fine-Tuning of Diffusion Models for Text-to-Image Generation [59.184980778643464]
ファインチューニング拡散モデル : 生成人工知能(GenAI)の最前線
本稿では,拡散モデル(SPIN-Diffusion)のための自己演奏ファインチューニングという革新的な手法を紹介する。
提案手法は従来の教師付き微調整とRL戦略の代替として,モデル性能とアライメントの両方を大幅に改善する。
論文 参考訳(メタデータ) (2024-02-15T18:59:18Z) - Harnessing Diffusion Models for Visual Perception with Meta Prompts [68.78938846041767]
本稿では,視覚知覚タスクの拡散モデルを用いた簡易かつ効果的な手法を提案する。
学習可能な埋め込み(メタプロンプト)を事前学習した拡散モデルに導入し、知覚の適切な特徴を抽出する。
提案手法は,NYU 深度 V2 と KITTI の深度推定タスク,および CityScapes のセマンティックセグメンテーションタスクにおいて,新しい性能記録を実現する。
論文 参考訳(メタデータ) (2023-12-22T14:40:55Z) - DiffAug: Enhance Unsupervised Contrastive Learning with Domain-Knowledge-Free Diffusion-based Data Augmentation [48.25619775814776]
本稿では,拡散モードに基づく正データ生成を用いた新しい教師なしコントラスト学習手法であるDiffAugを提案する。
DiffAugはセマンティックエンコーダと条件拡散モデルから構成されており、条件拡散モデルはセマンティックエンコーダに条件付された新しい正のサンプルを生成する。
実験的評価により、DiffAugは、DNA配列、視覚、および生体機能データセットのハンドデザインおよびSOTAモデルに基づく拡張手法よりも優れていることが示された。
論文 参考訳(メタデータ) (2023-09-10T13:28:46Z) - Improving Adversarial Robustness by Contrastive Guided Diffusion Process [19.972628281993487]
データ生成における拡散モデルを導くために,コントラスト誘導拡散プロセス(Contrastive-Guided Diffusion Process, DP)を提案する。
生成データ間の識別性の向上は, 対向的ロバスト性の向上に不可欠であることを示す。
論文 参考訳(メタデータ) (2022-10-18T07:20:53Z) - Negative Data Augmentation [127.28042046152954]
負のデータ拡張サンプルは、データ分散のサポートに関する情報を提供することを示す。
我々は、NDAを識別器の合成データの追加源として利用する新しいGAN訓練目標を提案する。
実験により,本手法で訓練したモデルでは,異常検出能力の向上とともに条件付き・条件付き画像生成の改善を実現している。
論文 参考訳(メタデータ) (2021-02-09T20:28:35Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。