論文の概要: A Dual-stage Prompt-driven Privacy-preserving Paradigm for Person Re-Identification
- arxiv url: http://arxiv.org/abs/2511.05092v1
- Date: Fri, 07 Nov 2025 09:17:48 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-10 21:00:44.71806
- Title: A Dual-stage Prompt-driven Privacy-preserving Paradigm for Person Re-Identification
- Title(参考訳): 人物再同定のためのデュアルステージプロンプト駆動型プライバシ保護パラダイム
- Authors: Ruolin Li, Min Liu, Yuan Bian, Zhaoyang Li, Yuzhen Li, Xueping Wang, Yaonan Wang,
- Abstract要約: 本稿では,DPPP(Dual-stage Prompt-driven Privacy-serving Paradigm)を提案する。
第1段階では,多次元特性を取り入れたリッチなプロンプトを生成し,拡散モデルを用いて多様なデータをエンドツーエンドに合成する。
第2段階では,ドメイン不変な一般化特徴を学習するためのPDM(Prompt-driven Disentanglement Mechanism)を提案する。
- 参考スコア(独自算出の注目度): 42.56589115173974
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: With growing concerns over data privacy, researchers have started using virtual data as an alternative to sensitive real-world images for training person re-identification (Re-ID) models. However, existing virtual datasets produced by game engines still face challenges such as complex construction and poor domain generalization, making them difficult to apply in real scenarios. To address these challenges, we propose a Dual-stage Prompt-driven Privacy-preserving Paradigm (DPPP). In the first stage, we generate rich prompts incorporating multi-dimensional attributes such as pedestrian appearance, illumination, and viewpoint that drive the diffusion model to synthesize diverse data end-to-end, building a large-scale virtual dataset named GenePerson with 130,519 images of 6,641 identities. In the second stage, we propose a Prompt-driven Disentanglement Mechanism (PDM) to learn domain-invariant generalization features. With the aid of contrastive learning, we employ two textual inversion networks to map images into pseudo-words representing style and content, respectively, thereby constructing style-disentangled content prompts to guide the model in learning domain-invariant content features at the image level. Experiments demonstrate that models trained on GenePerson with PDM achieve state-of-the-art generalization performance, surpassing those on popular real and virtual Re-ID datasets.
- Abstract(参考訳): データプライバシに関する懸念が高まる中、研究者は仮想データを、個人再識別(Re-ID)モデルのトレーニングに、機密性の高い現実世界の画像の代替として使用し始めた。
しかし、ゲームエンジンによって生成された既存の仮想データセットは、複雑な構築やドメインの一般化などの課題に直面しており、実際のシナリオでは適用が困難である。
これらの課題に対処するため,我々はDPPP(Dual-stage Prompt-driven Privacy-Reserving Paradigm)を提案する。
最初の段階では、歩行者の外観、照明、視点などの多次元特性を取り入れたリッチなプロンプトを生成し、拡散モデルによって多様なデータをエンドツーエンドに合成し、GenePersonという名前の大規模な仮想データセットを構築する。
第2段階では,ドメイン不変な一般化特徴を学習するためのPDM(Prompt-driven Disentanglement Mechanism)を提案する。
コントラスト学習の助けを借りて、我々は2つのテキスト・インバージョン・ネットワークを用いて、画像をそれぞれスタイルとコンテンツを表す擬似単語にマッピングし、それによって、スタイルの異なるコンテンツプロンプトを構築し、画像レベルでドメイン不変のコンテンツ特徴を学習する際にモデルをガイドする。
実験では、GenePersonでPDMでトレーニングされたモデルが、一般的なリアルおよび仮想Re-IDデータセットを上回り、最先端の一般化パフォーマンスを達成することを示した。
関連論文リスト
- Gradient-Attention Guided Dual-Masking Synergetic Framework for Robust Text-based Person Retrieval [15.126709823382539]
本研究は、人物表現学習のためのコントラスト言語画像事前学習(CLIP)を推進している。
MLLMのコンテキスト内学習機能を活用した耐雑音性データ構築パイプラインを開発した。
我々はGA-DMSフレームワークを導入し、ノイズの多いテキストトークンを適応的にマスキングすることで、クロスモーダルアライメントを改善する。
論文 参考訳(メタデータ) (2025-09-11T03:06:22Z) - Concept-Aware LoRA for Domain-Aligned Segmentation Dataset Generation [66.66243874361103]
1) 生成されたサンプルを対象のドメインに整列させ、2) トレーニングデータ以外の情報的なサンプルを生成する。
本稿では,ドメインアライメントに必要な概念に関連する重みのみを選択的に識別・更新する,新しい微調整手法であるConcept-Aware LoRAを提案する。
都市・シーンのセグメンテーション, ベースライン, 最先端の手法をドメイン内設定で生成する上での有効性を実証する。
論文 参考訳(メタデータ) (2025-03-28T06:23:29Z) - UIFace: Unleashing Inherent Model Capabilities to Enhance Intra-Class Diversity in Synthetic Face Recognition [42.86969216015855]
顔認識(FR)はコンピュータビジョンにおいて最も重要な応用の1つである。
UIFaceとして短縮された合成顔認識のためのクラス内多様性を高めるフレームワークを提案する。
実験結果から,本手法は従来の手法に比べてトレーニングデータが少なく,合成データセットの約半分の規模で大幅に上回っていることがわかった。
論文 参考訳(メタデータ) (2025-02-27T06:22:18Z) - Personalized Representation from Personalized Generation [36.848215621708235]
我々は、パーソナライズされた合成データを用いてパーソナライズされた表現を学習するという課題を定式化する。
提案手法は,多様な下流タスクに対するパーソナライズされた表現学習を改善する。
論文 参考訳(メタデータ) (2024-12-20T18:59:03Z) - Retrieval-guided Cross-view Image Synthesis [3.7477511412024573]
クロスビュー画像合成は、信頼性の高い対応を確立する上で大きな課題となる。
本稿では,検索手法が効果的なクロスビュー画像合成を促進する方法を再定義する検索誘導フレームワークを提案する。
我々の研究は、情報検索と合成タスクを橋渡しし、検索技術が複雑なドメイン間合成の課題にどのように対処できるかについての洞察を提供する。
論文 参考訳(メタデータ) (2024-11-29T07:04:44Z) - Synthesizing Efficient Data with Diffusion Models for Person Re-Identification Pre-Training [51.87027943520492]
本稿では,既知の同一性に基づく多様な画像の効率向上と生成を行う新しいパラダイムDiffusion-ReIDを提案する。
提案したパラダイムに適合して,まず,5,183個のIDから777K以上の画像で構成された,大規模なRe-IDデータセットDiff-Personを新たに作成する。
論文 参考訳(メタデータ) (2024-06-10T06:26:03Z) - ID-Aligner: Enhancing Identity-Preserving Text-to-Image Generation with Reward Feedback Learning [57.91881829308395]
AIポートレートや広告といった幅広いアプリケーションシナリオのために、ID-T2I(ID-preserving text-to-image generation)が注目されている。
我々は,ID-T2I性能を向上させるための一般的なフィードバック学習フレームワークである textbfID-Aligner を提案する。
論文 参考訳(メタデータ) (2024-04-23T18:41:56Z) - VIGFace: Virtual Identity Generation for Privacy-Free Face Recognition [13.81887339529775]
VIGFaceは合成顔画像を生成する新しいフレームワークである。
これは、既存の個人と仮想顔画像との明確な分離性を示し、自信を持って合成画像を作成することができる。
既存の実際のイメージを組み込むことで、データ拡張によるパフォーマンスの向上を保証する。
論文 参考訳(メタデータ) (2024-03-13T06:11:41Z) - Contrastive Transformer Learning with Proximity Data Generation for
Text-Based Person Search [60.626459715780605]
記述的なテキストクエリーを与えられたテキストベースの人物検索は、画像ギャラリーからベストマッチした人物を検索することを目的としている。
このようなクロスモーダル検索タスクは、重要なモダリティギャップ、きめ細かい相違、注釈付きデータの不十分さのため、かなり難しい。
本稿では,テキストに基づく人物検索のための2つのトランスフォーマーモデルを提案する。
論文 参考訳(メタデータ) (2023-11-15T16:26:49Z) - Unsupervised Domain Adaptive Learning via Synthetic Data for Person
Re-identification [101.1886788396803]
人物再識別(re-ID)は、ビデオ監視に広く応用されているため、ますます注目を集めている。
残念なことに、主流のディープラーニング手法では、モデルをトレーニングするために大量のラベル付きデータが必要です。
本稿では,コンピュータゲーム内で合成されたre-IDサンプルを自動的に生成するデータコレクタを開発し,同時にアノテートするデータラベラを構築した。
論文 参考訳(メタデータ) (2021-09-12T15:51:41Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。