論文の概要: Exploring the Quality of GAN Generated Images for Person
Re-Identification
- arxiv url: http://arxiv.org/abs/2108.09977v1
- Date: Mon, 23 Aug 2021 07:20:12 GMT
- ステータス: 処理完了
- システム内更新日: 2021-08-24 21:13:12.733357
- Title: Exploring the Quality of GAN Generated Images for Person
Re-Identification
- Title(参考訳): 人物再同定のためのGAN生成画像の品質探索
- Authors: Yiqi Jiang, Weihua Chen, Xiuyu Sun, Xiaoyu Shi, Fan Wang, Hao Li
- Abstract要約: 本稿では,ReIDサンプルの奥行き特性を解析し,ReIDに優れたGAN生成画像を作成するか」という課題を解決する。
具体的には、各データサンプルのID一貫性と多様性の制約について、異なる空間に画像をマッピングすることで検討する。
計量に基づくサンプリング手法により,すべてのGAN生成データが拡張に有用ではないことを示す。
- 参考スコア(独自算出の注目度): 11.937944949571765
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Recently, GAN based method has demonstrated strong effectiveness in
generating augmentation data for person re-identification (ReID), on account of
its ability to bridge the gap between domains and enrich the data variety in
feature space. However, most of the ReID works pick all the GAN generated data
as additional training samples or evaluate the quality of GAN generation at the
entire data set level, ignoring the image-level essential feature of data in
ReID task. In this paper, we analyze the in-depth characteristics of ReID
sample and solve the problem of "What makes a GAN-generated image good for
ReID". Specifically, we propose to examine each data sample with id-consistency
and diversity constraints by mapping image onto different spaces. With a
metric-based sampling method, we demonstrate that not every GAN-generated data
is beneficial for augmentation. Models trained with data filtered by our
quality evaluation outperform those trained with the full augmentation set by a
large margin. Extensive experiments show the effectiveness of our method on
both supervised ReID task and unsupervised domain adaptation ReID task.
- Abstract(参考訳): 近年、ドメイン間のギャップを埋め、特徴空間におけるデータ多様性を豊かにする能力から、人物再識別のための強化データ(ReID)の生成に強い効果が示されている。
しかし、ReIDの作業の多くは、追加のトレーニングサンプルとしてすべてのGAN生成データを選択したり、データセットレベルでのGAN生成の品質を評価し、ReIDタスクにおけるデータのイメージレベルの本質的な特徴を無視したりする。
本稿では,ReID サンプルの深部特性を分析し,ReID に優れた GAN 生成画像を作成するという課題を解決する。
具体的には、各データサンプルのID一貫性と多様性の制約について、異なる空間に画像をマッピングすることで検討する。
計量に基づくサンプリング法により,すべてのGAN生成データが拡張に有用ではないことを示す。
品質評価によってフィルタリングされたデータでトレーニングされたモデルは、大きなマージンで設定された完全な拡張でトレーニングされたモデルよりも優れています。
拡張実験により,教師付きReIDタスクと教師なしドメイン適応ReIDタスクの両方において,本手法の有効性が示された。
関連論文リスト
- Exploring Stronger Transformer Representation Learning for Occluded Person Re-Identification [2.552131151698595]
我々はトランスフォーマーに基づく人物識別フレームワークであるSSSC-TransReIDを組み合わせた新しい自己監督・監督手法を提案した。
我々は、ネガティブなサンプルや追加の事前学習なしに、人物の再識別のための特徴表現を強化することができる自己教師付きコントラスト学習ブランチを設計した。
提案モデルでは, 平均平均精度(mAP) とランク1の精度において, 最先端のReID手法よりも優れたRe-ID性能が得られ, 高いマージンで性能が向上する。
論文 参考訳(メタデータ) (2024-10-21T03:17:25Z) - Diverse Deep Feature Ensemble Learning for Omni-Domain Generalized Person Re-identification [30.208890289394994]
Person ReIDメソッドは、異なるデータセット間でトレーニングとテストを行うと、パフォーマンスが大幅に低下する。
本研究は,ドメイン一般化手法が単一データセットのベンチマークにおいて,単一ドメイン管理手法を著しく過小評価していることを明らかにする。
本稿では,自己アンサンブルによる深い特徴の多様性を生かし,ODG-ReIDを実現する方法を提案する。
論文 参考訳(メタデータ) (2024-10-11T02:27:11Z) - Attribute-Text Guided Forgetting Compensation for Lifelong Person Re-Identification [8.841311088024584]
LReID(Lifelong person re-identification)は、静止しないデータから継続的に学習し、異なる環境の個人をマッチングすることを目的としている。
現在のLReID手法は、タスク固有の知識に焦点をあて、ドメインギャップ内の固有のタスク共有表現を無視している。
本稿では,テキスト駆動型グローバル表現と属性関連ローカル表現を探索する,新しい属性テキストガイド型忘れ補償モデルを提案する。
論文 参考訳(メタデータ) (2024-09-30T05:19:09Z) - A Simple Background Augmentation Method for Object Detection with Diffusion Model [53.32935683257045]
コンピュータビジョンでは、データの多様性の欠如がモデル性能を損なうことはよく知られている。
本稿では, 生成モデルの進歩を生かして, 単純かつ効果的なデータ拡張手法を提案する。
背景強化は、特にモデルの堅牢性と一般化能力を大幅に改善する。
論文 参考訳(メタデータ) (2024-08-01T07:40:00Z) - Synthesizing Efficient Data with Diffusion Models for Person Re-Identification Pre-Training [51.87027943520492]
本稿では,既知の同一性に基づく多様な画像の効率向上と生成を行う新しいパラダイムDiffusion-ReIDを提案する。
提案したパラダイムに適合して,まず,5,183個のIDから777K以上の画像で構成された,大規模なRe-IDデータセットDiff-Personを新たに作成する。
論文 参考訳(メタデータ) (2024-06-10T06:26:03Z) - Generalizable Metric Network for Cross-domain Person Re-identification [55.71632958027289]
クロスドメイン(ドメインの一般化)シーンは、Re-IDタスクにおいて課題となる。
既存のほとんどのメソッドは、すべてのドメインのドメイン不変またはロバストな機能を学ぶことを目的としています。
本稿では,サンプルペア空間における標本類似性を調べるために,GMN(Generalizable Metric Network)を提案する。
論文 参考訳(メタデータ) (2023-06-21T03:05:25Z) - Intriguing Property and Counterfactual Explanation of GAN for Remote Sensing Image Generation [25.96740500337747]
GAN(Generative Adversarial Network)は、自然画像の分野で顕著な進歩を遂げている。
GANモデルは、自然な画像生成よりも、RS画像生成のためのトレーニングデータのサイズに敏感である。
本稿では,一様正則化(UR)とエントロピー正則化(ER)という2つの革新的な調整手法を提案する。
論文 参考訳(メタデータ) (2023-03-09T13:22:50Z) - Cluster-level pseudo-labelling for source-free cross-domain facial
expression recognition [94.56304526014875]
表情認識のためのSFUDA法を提案する。
本手法は,自己教師付き事前学習を利用して,対象データから優れた特徴表現を学習する。
提案手法の有効性を4つの適応方式で検証し,FERに適用した場合,既存のSFUDA法より一貫して優れていることを示す。
論文 参考訳(メタデータ) (2022-10-11T08:24:50Z) - Exploring Data Aggregation and Transformations to Generalize across
Visual Domains [0.0]
この論文は、ドメイン一般化(DG)、ドメイン適応(DA)およびそれらのバリエーションの研究に寄与する。
本稿では,機能集約戦略と視覚変換を利用するドメイン一般化とドメイン適応の新しいフレームワークを提案する。
提案手法が確立したDGおよびDAベンチマークにおいて,最先端の競争的アプローチよりも優れていることを示す。
論文 参考訳(メタデータ) (2021-08-20T14:58:14Z) - Negative Data Augmentation [127.28042046152954]
負のデータ拡張サンプルは、データ分散のサポートに関する情報を提供することを示す。
我々は、NDAを識別器の合成データの追加源として利用する新しいGAN訓練目標を提案する。
実験により,本手法で訓練したモデルでは,異常検出能力の向上とともに条件付き・条件付き画像生成の改善を実現している。
論文 参考訳(メタデータ) (2021-02-09T20:28:35Z) - Unsupervised Pre-training for Person Re-identification [90.98552221699508]
大規模無ラベル人物再識別(Re-ID)データセットLUPersonを提案する。
学習者のRe-ID特徴表現の一般化能力を向上させるために,教師なし事前学習を初めて行おうとする。
論文 参考訳(メタデータ) (2020-12-07T14:48:26Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。