論文の概要: OmniPerson: Unified Identity-Preserving Pedestrian Generation
- arxiv url: http://arxiv.org/abs/2512.02554v1
- Date: Tue, 02 Dec 2025 09:24:34 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-12-03 21:04:45.803145
- Title: OmniPerson: Unified Identity-Preserving Pedestrian Generation
- Title(参考訳): OmniPerson: 統一ID保存ペデストリアン世代
- Authors: Changxiao Ma, Chao Yuan, Xincheng Shi, Yuzhuo Ma, Yongfei Zhang, Longkun Zhou, Yujia Zhang, Shangze Li, Yifan Xu,
- Abstract要約: 我々は、ReIDタスクのための最初の統合ID保存歩行者生成パイプラインであるOmniPersonを紹介する。
我々は、マルチ参照、制御可能な歩行者生成のための最初の大規模データセットであるPersonSynを提案する。
我々は、完全で事前訓練されたモデルと PersonSynデータセットをオープンソースにします。
- 参考スコア(独自算出の注目度): 12.060261814704022
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Person re-identification (ReID) suffers from a lack of large-scale high-quality training data due to challenges in data privacy and annotation costs. While previous approaches have explored pedestrian generation for data augmentation, they often fail to ensure identity consistency and suffer from insufficient controllability, thereby limiting their effectiveness in dataset augmentation. To address this, We introduce OmniPerson, the first unified identity-preserving pedestrian generation pipeline for visible/infrared image/video ReID tasks. Our contributions are threefold: 1) We proposed OmniPerson, a unified generation model, offering holistic and fine-grained control over all key pedestrian attributes. Supporting RGB/IR modality image/video generation with any number of reference images, two kinds of person poses, and text. Also including RGB-to-IR transfer and image super-resolution abilities.2) We designed Multi-Refer Fuser for robust identity preservation with any number of reference images as input, making OmniPerson could distill a unified identity from a set of multi-view reference images, ensuring our generated pedestrians achieve high-fidelity pedestrian generation.3) We introduce PersonSyn, the first large-scale dataset for multi-reference, controllable pedestrian generation, and present its automated curation pipeline which transforms public, ID-only ReID benchmarks into a richly annotated resource with the dense, multi-modal supervision required for this task. Experimental results demonstrate that OmniPerson achieves SoTA in pedestrian generation, excelling in both visual fidelity and identity consistency. Furthermore, augmenting existing datasets with our generated data consistently improves the performance of ReID models. We will open-source the full codebase, pretrained model, and the PersonSyn dataset.
- Abstract(参考訳): 人物再識別(ReID)は、データプライバシとアノテーションコストの課題により、大規模で高品質なトレーニングデータが不足している。
以前のアプローチでは、データ拡張のための歩行者生成を探索していたが、アイデンティティの整合性を確保することができず、制御性に乏しいため、データセット拡張における有効性を制限していることが多い。
OmniPersonは、視覚/赤外線画像/ビデオReIDタスクのための、最初の統合されたアイデンティティ保存歩行者生成パイプラインである。
私たちの貢献は3倍です。
1)OmniPersonは,すべての歩行者属性を包括的かつきめ細かな制御が可能な統合世代モデルである。
RGB/IRモダリティ画像/ビデオ生成をサポートする。
RGB-to-IR転送と画像超解像能力を含む2つのRGB-IR転送と画像超解像能力を含む2つのRGB-IR転送と2つのRGB-IR転送を含むRGB-IR転送と画像超解像能力を含む、我々は、OmniPersonを入力として堅牢なID保存のために設計し、OmniPersonが一連のマルチビュー参照画像から統一されたアイデンティティを抽出し、生成した歩行者が高忠実な歩行者生成を達成することを保証した。
実験の結果,OmniPersonは歩行者生成においてSoTAを達成し,視覚的忠実度とアイデンティティの整合性の両方に優れていた。
さらに,既存のデータセットを生成データで拡張することで,ReIDモデルの性能が一貫して向上する。
完全なコードベース、事前トレーニングされたモデル、PersonSynデータセットをオープンソースにします。
関連論文リスト
- A Dual-stage Prompt-driven Privacy-preserving Paradigm for Person Re-Identification [42.56589115173974]
本稿では,DPPP(Dual-stage Prompt-driven Privacy-serving Paradigm)を提案する。
第1段階では,多次元特性を取り入れたリッチなプロンプトを生成し,拡散モデルを用いて多様なデータをエンドツーエンドに合成する。
第2段階では,ドメイン不変な一般化特徴を学習するためのPDM(Prompt-driven Disentanglement Mechanism)を提案する。
論文 参考訳(メタデータ) (2025-11-07T09:17:48Z) - WithAnyone: Towards Controllable and ID Consistent Image Generation [83.55786496542062]
アイデンティティ・一貫性・ジェネレーションは、テキスト・ツー・イメージ研究において重要な焦点となっている。
マルチパーソンシナリオに適した大規模ペアデータセットを開発する。
本稿では,データと多様性のバランスをとるためにペアデータを活用する,対照的なアイデンティティ損失を持つ新たなトレーニングパラダイムを提案する。
論文 参考訳(メタデータ) (2025-10-16T17:59:54Z) - SD-ReID: View-aware Stable Diffusion for Aerial-Ground Person Re-Identification [74.36139886192495]
本稿では,AG-ReID のための SD-ReID という新しい生成フレームワークを提案する。
まず、ViTベースのモデルを用いて人物表現を抽出し、個人性や視認性を含む制御可能な条件を抽出する。
次に、安定拡散(SD)モデルを微調整し、これらの制御可能な条件によって導かれる人物表現を強化する。
論文 参考訳(メタデータ) (2025-04-13T12:44:50Z) - Synthesizing Efficient Data with Diffusion Models for Person Re-Identification Pre-Training [51.87027943520492]
本稿では,既知の同一性に基づく多様な画像の効率向上と生成を行う新しいパラダイムDiffusion-ReIDを提案する。
提案したパラダイムに適合して,まず,5,183個のIDから777K以上の画像で構成された,大規模なRe-IDデータセットDiff-Personを新たに作成する。
論文 参考訳(メタデータ) (2024-06-10T06:26:03Z) - ID-Aligner: Enhancing Identity-Preserving Text-to-Image Generation with Reward Feedback Learning [57.91881829308395]
AIポートレートや広告といった幅広いアプリケーションシナリオのために、ID-T2I(ID-preserving text-to-image generation)が注目されている。
我々は,ID-T2I性能を向上させるための一般的なフィードバック学習フレームワークである textbfID-Aligner を提案する。
論文 参考訳(メタデータ) (2024-04-23T18:41:56Z) - Unsupervised Pre-training for Person Re-identification [90.98552221699508]
大規模無ラベル人物再識別(Re-ID)データセットLUPersonを提案する。
学習者のRe-ID特徴表現の一般化能力を向上させるために,教師なし事前学習を初めて行おうとする。
論文 参考訳(メタデータ) (2020-12-07T14:48:26Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。