論文の概要: TAGPerson: A Target-Aware Generation Pipeline for Person
Re-identification
- arxiv url: http://arxiv.org/abs/2112.14239v1
- Date: Tue, 28 Dec 2021 17:56:19 GMT
- ステータス: 処理完了
- システム内更新日: 2021-12-30 15:23:16.112396
- Title: TAGPerson: A Target-Aware Generation Pipeline for Person
Re-identification
- Title(参考訳): TAGPerson: 人物識別のためのターゲット認識生成パイプライン
- Authors: Kai Chen, Weihua Chen, Tao He, Rong Du, Fan Wang, Xiuyu Sun, Yuchen
Guo, Guiguang Ding
- Abstract要約: 本稿では,TAGPerson と呼ばれる合成人物画像を生成する新しいターゲット・アウェア・ジェネレーション・パイプラインを提案する。
具体的には、パラメータが制御可能で、ターゲットのシーンに応じて調整できるパラメータ化レンダリング手法である。
本実験では,MSMT17の一般合成画像,すなわちランク1精度の47.5%対40.9%に対して,目標認識合成画像よりもはるかに高い性能が得られることを示した。
- 参考スコア(独自算出の注目度): 65.60874203262375
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Nowadays, real data in person re-identification (ReID) task is facing privacy
issues, e.g., the banned dataset DukeMTMC-ReID. Thus it becomes much harder to
collect real data for ReID task. Meanwhile, the labor cost of labeling ReID
data is still very high and further hinders the development of the ReID
research. Therefore, many methods turn to generate synthetic images for ReID
algorithms as alternatives instead of real images. However, there is an
inevitable domain gap between synthetic and real images. In previous methods,
the generation process is based on virtual scenes, and their synthetic training
data can not be changed according to different target real scenes
automatically. To handle this problem, we propose a novel Target-Aware
Generation pipeline to produce synthetic person images, called TAGPerson.
Specifically, it involves a parameterized rendering method, where the
parameters are controllable and can be adjusted according to target scenes. In
TAGPerson, we extract information from target scenes and use them to control
our parameterized rendering process to generate target-aware synthetic images,
which would hold a smaller gap to the real images in the target domain. In our
experiments, our target-aware synthetic images can achieve a much higher
performance than the generalized synthetic images on MSMT17, i.e. 47.5% vs.
40.9% for rank-1 accuracy. We will release this toolkit\footnote{\noindent Code
is available at
\href{https://github.com/tagperson/tagperson-blender}{https://github.com/tagperson/tagperson-blender}}
for the ReID community to generate synthetic images at any desired taste.
- Abstract(参考訳): 現在、個人再識別(ReID)タスクの実際のデータは、禁止されたデータセットである DukeMTMC-ReID などのプライバシー問題に直面している。
したがって、ReIDタスクの実際のデータを収集するのはずっと難しくなります。
一方、ReIDデータのラベル付けのコストは依然として非常に高く、ReID研究の発展を妨げている。
そのため、多くの手法が実際の画像の代わりにReIDアルゴリズムの合成画像を生成する。
しかし、合成画像と実画像の間には避けられない領域ギャップがある。
従来の方法では、生成プロセスは仮想シーンに基づいており、それらの合成トレーニングデータは、異なるターゲットの実際のシーンに応じて自動的に変更することはできない。
この問題に対処するために,タッグパーソンと呼ばれる合成人物画像を生成する新しい目標認識生成パイプラインを提案する。
具体的には、パラメータが制御可能で、ターゲットのシーンに応じて調整できるパラメータ化レンダリング手法である。
TAGPersonでは、ターゲットシーンから情報を抽出し、パラメータ化レンダリングプロセスを制御することで、ターゲット領域内の実際の画像とのギャップを小さくするターゲット認識合成画像を生成する。
本実験では,MSMT17の一般合成画像,すなわちランク1精度の47.5%対40.9%に対して,目標認識合成画像よりもはるかに高い性能が得られることを示した。
このツールキットはgithub.com/tagperson/tagperson-blender}{https://github.com/tagperson/tagperson-blender}}reidコミュニティが任意の好みで合成画像を生成するために利用できる。
関連論文リスト
- The Unmet Promise of Synthetic Training Images: Using Retrieved Real Images Performs Better [39.57368843211441]
すべての合成画像は、最終的にジェネレータを訓練するために使用される上流データに由来する。
我々は, LAION-2Bから直接取得した目標実画像に対して, 安定拡散によって生成されたタスク関連ターゲット合成データを微調整と比較した。
解析の結果,このアンダーパフォーマンスは生成物と,合成画像中のタスク関連視覚的詳細が不正確なためであることが示唆された。
論文 参考訳(メタデータ) (2024-06-07T18:04:21Z) - Bridging Synthetic and Real Worlds for Pre-training Scene Text Detectors [54.80516786370663]
FreeRealは、SDと実際のデータの相補的な強みを可能にする、実際のドメイン整合型事前トレーニングパラダイムである。
GlyphMixは、合成画像を落書きのようなユニットとして実際の画像に埋め込む。
FreeRealは、4つの公開データセットで、既存の事前トレーニングメソッドよりも大幅にパフォーマンスが向上している。
論文 参考訳(メタデータ) (2023-12-08T15:10:55Z) - FreeMask: Synthetic Images with Dense Annotations Make Stronger
Segmentation Models [62.009002395326384]
FreeMaskは、生成モデルからの合成画像を利用して、データ収集とアノテーション手順の負担を軽減する。
まず、現実的なデータセットによって提供されるセマンティックマスクに条件付けされた豊富な訓練画像を合成する。
本研究では,実画像との協調訓練や,実画像の事前学習による合成画像の役割について検討する。
論文 参考訳(メタデータ) (2023-10-23T17:57:27Z) - Towards Pragmatic Semantic Image Synthesis for Urban Scenes [4.36080478413575]
合成画像とラベル付きデータセットとラベルなしの実画像付きデータセットが与えられた場合、入力マスクの内容と実際の画像の外観で画像を生成することができるモデルを学ぶことが目的である。
合成画像は, パッチレベルでの高次特徴の違いをペナルティ化することにより, 生成画像の内容のガイドとして活用する。
対象領域のセマンティックな分布に過度に適合する1つの識別器を用いた以前の研究とは対照的に、画像全体の識別器と画像パッチ上のマルチスケール識別器を用いる。
論文 参考訳(メタデータ) (2023-05-16T18:01:12Z) - Is synthetic data from generative models ready for image recognition? [69.42645602062024]
本研究では,最新のテキスト・画像生成モデルから生成した合成画像が,画像認識タスクにどのように利用できるかを検討した。
本稿では,既存の生成モデルからの合成データの強大さと欠点を示し,認識タスクに合成データを適用するための戦略を提案する。
論文 参考訳(メタデータ) (2022-10-14T06:54:24Z) - BLADERUNNER: Rapid Countermeasure for Synthetic (AI-Generated) StyleGAN
Faces [0.0]
StyleGANはNVIDIAが開発したオープンソース実装である。
サイバー&インフォメーションオペレーションに対するAI/MLの関連性について調査する。
Project Blade RunnerはStyleGANイメージに対抗するために必要な2つのスクリプトを含んでいる。
論文 参考訳(メタデータ) (2022-10-12T21:05:35Z) - A Shared Representation for Photorealistic Driving Simulators [83.5985178314263]
本稿では、識別器アーキテクチャを再考することにより、生成画像の品質を向上させることを提案する。
シーンセグメンテーションマップや人体ポーズといったセマンティックインプットによって画像が生成されるという問題に焦点が当てられている。
我々は,意味的セグメンテーション,コンテンツ再構成,および粗い粒度の逆解析を行うのに十分な情報をエンコードする,共有潜在表現を学習することを目指している。
論文 参考訳(メタデータ) (2021-12-09T18:59:21Z) - UnrealPerson: An Adaptive Pipeline towards Costless Person
Re-identification [102.58619642363959]
本稿では,unrealpersonという,非現実的な画像データをフル活用して,トレーニングとデプロイメントの両面でコストを削減する新しいパイプラインを提案する。
3,000のIDと12万のインスタンスで、MSMT17に直接転送されると38.5%のランク-1の精度が得られる。
論文 参考訳(メタデータ) (2020-12-08T08:15:30Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。