論文の概要: Diffusion-based Synthetic Data Generation for Visible-Infrared Person Re-Identification
- arxiv url: http://arxiv.org/abs/2503.12472v1
- Date: Sun, 16 Mar 2025 11:54:37 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-03-18 12:31:04.471166
- Title: Diffusion-based Synthetic Data Generation for Visible-Infrared Person Re-Identification
- Title(参考訳): 可視赤外人物再同定のための拡散に基づく合成データ生成
- Authors: Wenbo Dai, Lijing Lu, Zhihang Li,
- Abstract要約: Visible-Infrared Person Re-IDentification (VI-ReID) タスクでは、様々なカメラやモダリティの下で各個人の大規模な画像を収集、注釈付けすることは、退屈で、時間的、費用がかかり、データ保護法に従わなければならない。
現在の研究では、現場での実際のデータ収集に代わる、効率的かつプライバシー保護の代替として、合成データの生成について検討している。
本稿では,Diffusion-based VI-ReID data Expansion (DiVE) と呼ばれる新しいデータ生成フレームワークを提案する。
- 参考スコア(独自算出の注目度): 4.448748938342291
- License:
- Abstract: The performance of models is intricately linked to the abundance of training data. In Visible-Infrared person Re-IDentification (VI-ReID) tasks, collecting and annotating large-scale images of each individual under various cameras and modalities is tedious, time-expensive, costly and must comply with data protection laws, posing a severe challenge in meeting dataset requirements. Current research investigates the generation of synthetic data as an efficient and privacy-ensuring alternative to collecting real data in the field. However, a specific data synthesis technique tailored for VI-ReID models has yet to be explored. In this paper, we present a novel data generation framework, dubbed Diffusion-based VI-ReID data Expansion (DiVE), that automatically obtain massive RGB-IR paired images with identity preserving by decoupling identity and modality to improve the performance of VI-ReID models. Specifically, identity representation is acquired from a set of samples sharing the same ID, whereas the modality of images is learned by fine-tuning the Stable Diffusion (SD) on modality-specific data. DiVE extend the text-driven image synthesis to identity-preserving RGB-IR multimodal image synthesis. This approach significantly reduces data collection and annotation costs by directly incorporating synthetic data into ReID model training. Experiments have demonstrated that VI-ReID models trained on synthetic data produced by DiVE consistently exhibit notable enhancements. In particular, the state-of-the-art method, CAJ, trained with synthetic images, achieves an improvement of about $9\%$ in mAP over the baseline on the LLCM dataset. Code: https://github.com/BorgDiven/DiVE
- Abstract(参考訳): モデルの性能は、トレーニングデータの豊富さと密接に関連している。
Visible-Infrared Person Re-IDentification (VI-ReID) タスクでは、さまざまなカメラやモダリティの下で個々の個人の大規模な画像を収集、注釈付けすることは、退屈で、時間的、コスト的に、データ保護法に従わなければならない。
現在の研究では、現場における実際のデータ収集に代わる、効率的かつプライバシー保護の代替として、合成データの生成について検討している。
しかし、VI-ReIDモデルに適した特定のデータ合成技術はまだ検討されていない。
本稿では,Diffusion-based VI-ReID data Expansion (DiVE)と呼ばれる新たなデータ生成フレームワークを提案する。
具体的には、同一IDを共有するサンプルの集合からアイデンティティ表現を取得し、画像のモダリティは、モダリティ固有のデータに基づいて安定拡散(SD)を微調整することによって学習する。
DiVEはテキスト駆動画像合成をアイデンティティ保存RGB-IRマルチモーダル画像合成に拡張する。
このアプローチは、合成データをReIDモデルトレーニングに直接組み込むことで、データ収集とアノテーションのコストを大幅に削減する。
実験では、DiVEが生成した合成データに基づいてトレーニングされたVI-ReIDモデルが、常に顕著な拡張を示すことが示されている。
特に、合成画像で訓練された最先端のCAJは、LLCMデータセットのベースラインよりも約9\%のmAPの改善を実現している。
コード:https://github.com/BorgDiven/DiVE
関連論文リスト
- BD-Diff: Generative Diffusion Model for Image Deblurring on Unknown Domains with Blur-Decoupled Learning [55.21345354747609]
BD-Diffは、未知の領域における劣化性能を高めるために設計された生成拡散モデルである。
構造表現とぼやけたパターン抽出器に2つのQ-Formerを別々に採用する。
構造的特徴とぼやけたパターンを補完する再構成タスクを導入する。
論文 参考訳(メタデータ) (2025-02-03T17:00:40Z) - Synthetic Image Learning: Preserving Performance and Preventing Membership Inference Attacks [5.0243930429558885]
本稿では,下流分類器の学習のための合成データの生成と利用を最適化するパイプラインである知識リサイクル(KR)を紹介する。
このパイプラインの核心は生成的知識蒸留(GKD)であり、情報の品質と有用性を大幅に向上させる技術が提案されている。
その結果、実データと合成データでトレーニングされたモデルと、実データでトレーニングされたモデルとの性能差が著しく低下した。
論文 参考訳(メタデータ) (2024-07-22T10:31:07Z) - Synthesizing Efficient Data with Diffusion Models for Person Re-Identification Pre-Training [51.87027943520492]
本稿では,既知の同一性に基づく多様な画像の効率向上と生成を行う新しいパラダイムDiffusion-ReIDを提案する。
提案したパラダイムに適合して,まず,5,183個のIDから777K以上の画像で構成された,大規模なRe-IDデータセットDiff-Personを新たに作成する。
論文 参考訳(メタデータ) (2024-06-10T06:26:03Z) - DetDiffusion: Synergizing Generative and Perceptive Models for Enhanced Data Generation and Perception [78.26734070960886]
現在の知覚モデルは、リソース集約的なデータセットに大きく依存している。
セグメンテーションを通じて知覚認識損失(P.A.損失)を導入し、品質と制御性の両方を改善した。
本手法は,世代間における知覚認識属性(P.A. Attr)の抽出と利用により,データ拡張をカスタマイズする。
論文 参考訳(メタデータ) (2024-03-20T04:58:03Z) - UAV-Sim: NeRF-based Synthetic Data Generation for UAV-based Perception [62.71374902455154]
ニューラルレンダリングの最近の進歩を利用して、静的および動的ノベルビューUAVベースの画像レンダリングを改善する。
本研究では,主に実データと合成データのハイブリッドセットに基づいて最先端検出モデルが最適化された場合,性能が大幅に向上することを示す。
論文 参考訳(メタデータ) (2023-10-25T00:20:37Z) - VI-Diff: Unpaired Visible-Infrared Translation Diffusion Model for
Single Modality Labeled Visible-Infrared Person Re-identification [14.749167141971952]
モダリティ間のデータアノテーションは、可視的・赤外線の人物の再識別に費用がかかり、エラーを起こしやすい。
視覚・赤外線画像変換の課題を効果的に解決する拡散モデルであるVI-Diffを提案する。
我々のアプローチは、単一のモダリティラベル付きデータを用いたVI-ReIDタスクの有望な解決策であり、将来の研究の出発点となる。
論文 参考訳(メタデータ) (2023-10-06T09:42:12Z) - Is synthetic data from generative models ready for image recognition? [69.42645602062024]
本研究では,最新のテキスト・画像生成モデルから生成した合成画像が,画像認識タスクにどのように利用できるかを検討した。
本稿では,既存の生成モデルからの合成データの強大さと欠点を示し,認識タスクに合成データを適用するための戦略を提案する。
論文 参考訳(メタデータ) (2022-10-14T06:54:24Z) - Less is More: Learning from Synthetic Data with Fine-grained Attributes
for Person Re-Identification [16.107661617441327]
人物の再識別(re-ID)は、公共のセキュリティやビデオ監視などのアプリケーションにおいて重要な役割を果たす。
近年、合成データから学ぶことは、学術と公衆の目の両方から注目を集めている。
我々は,微粒な属性分布を持つファインGPRという大規模合成人データセットを構築し,ラベル付けする。
論文 参考訳(メタデータ) (2021-09-22T03:12:32Z) - Unsupervised Domain Adaptive Learning via Synthetic Data for Person
Re-identification [101.1886788396803]
人物再識別(re-ID)は、ビデオ監視に広く応用されているため、ますます注目を集めている。
残念なことに、主流のディープラーニング手法では、モデルをトレーニングするために大量のラベル付きデータが必要です。
本稿では,コンピュータゲーム内で合成されたre-IDサンプルを自動的に生成するデータコレクタを開発し,同時にアノテートするデータラベラを構築した。
論文 参考訳(メタデータ) (2021-09-12T15:51:41Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。