論文の概要: Stronger Baseline for Person Re-Identification
- arxiv url: http://arxiv.org/abs/2112.01059v1
- Date: Thu, 2 Dec 2021 08:50:03 GMT
- ステータス: 処理完了
- システム内更新日: 2021-12-03 15:30:56.923934
- Title: Stronger Baseline for Person Re-Identification
- Title(参考訳): 人物再同定のための強力なベースライン
- Authors: Fengliang Qi, Bo Yan, Leilei Cao and Hongbin Wang
- Abstract要約: 人物再識別(re-ID)は、重複しない撮影カメラで同じ人物を識別することを目的としている。
本稿では,現在普及しているStrong Baselineの強化版であるStronger Baseline for person re-IDを提案する。
- 参考スコア(独自算出の注目度): 6.087398773657721
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Person re-identification (re-ID) aims to identify the same person of interest
across non-overlapping capturing cameras, which plays an important role in
visual surveillance applications and computer vision research areas. Fitting a
robust appearance-based representation extractor with limited collected
training data is crucial for person re-ID due to the high expanse of annotating
the identity of unlabeled data. In this work, we propose a Stronger Baseline
for person re-ID, an enhancement version of the current prevailing method,
namely, Strong Baseline, with tiny modifications but a faster convergence rate
and higher recognition performance. With the aid of Stronger Baseline, we
obtained the third place (i.e., 0.94 in mAP) in 2021 VIPriors Re-identification
Challenge without the auxiliary of ImageNet-based pre-trained parameter
initialization and any extra supplemental dataset.
- Abstract(参考訳): 人物再識別(re-ID)は、重複しない撮影カメラ間で同じ人物を識別することを目的としており、視覚監視アプリケーションやコンピュータビジョン研究領域において重要な役割を果たしている。
非ラベルデータの同一性に注釈を付けることによる人物再識別には,ロバストな外観ベース表現抽出器を限定的な収集訓練データに適合させることが重要である。
そこで本研究では,現在普及している手法であるStrong Baselineの強化版であるStronger Baseline for person re-IDを提案する。
また、Stronger Baselineの助けを借りて、ImageNetベースの事前学習パラメータ初期化と追加補足データセットの補助なしに、2021年のVIPriors再識別チャレンジで3位(mAP0.94 in mAP)を得た。
関連論文リスト
- Synthesizing Efficient Data with Diffusion Models for Person Re-Identification Pre-Training [51.87027943520492]
本稿では,既知の同一性に基づく多様な画像の効率向上と生成を行う新しいパラダイムDiffusion-ReIDを提案する。
提案したパラダイムに適合して,まず,5,183個のIDから777K以上の画像で構成された,大規模なRe-IDデータセットDiff-Personを新たに作成する。
論文 参考訳(メタデータ) (2024-06-10T06:26:03Z) - ID-Aligner: Enhancing Identity-Preserving Text-to-Image Generation with Reward Feedback Learning [57.91881829308395]
AIポートレートや広告といった幅広いアプリケーションシナリオのために、ID-T2I(ID-preserving text-to-image generation)が注目されている。
我々は,ID-T2I性能を向上させるための一般的なフィードバック学習フレームワークである textbfID-Aligner を提案する。
論文 参考訳(メタデータ) (2024-04-23T18:41:56Z) - Learning Invariance from Generated Variance for Unsupervised Person
Re-identification [15.096776375794356]
従来のデータ拡張をGAN(Generative Adversarial Network)に置き換えることを提案する。
3次元メッシュガイド型人物画像生成器は、人物画像をID関連およびID非関連の特徴に分解するために提案される。
生成モジュールとコントラストモジュールを共同でトレーニングすることにより、主流の大規模ベンチマーク上で、最先端の非教師なしのReID性能を実現する。
論文 参考訳(メタデータ) (2023-01-02T15:40:14Z) - Domain Adaptive Egocentric Person Re-identification [10.199631830749839]
ファーストパーソン(エゴセントリック)ビジョンにおける人物の再識別(再ID)は、かなり新しく未知の問題です。
ウェアラブルビデオ録画デバイスの増加に伴い、エゴセントリックなデータがすぐに利用可能になります。
大規模な構造化エゴセントリックデータセットは、人の再識別に大きく欠けている。
論文 参考訳(メタデータ) (2021-03-08T16:19:32Z) - Unsupervised Pre-training for Person Re-identification [90.98552221699508]
大規模無ラベル人物再識別(Re-ID)データセットLUPersonを提案する。
学習者のRe-ID特徴表現の一般化能力を向上させるために,教師なし事前学習を初めて行おうとする。
論文 参考訳(メタデータ) (2020-12-07T14:48:26Z) - Attribute-aware Identity-hard Triplet Loss for Video-based Person
Re-identification [51.110453988705395]
ビデオベースの人物識別(Re-ID)は重要なコンピュータビジョンタスクである。
属性認識型ID-hard Triplet Loss (AITL) と呼ばれる新しいメトリクス学習手法を提案する。
ビデオベースのRe-IDの完全なモデルを実現するために,Attribute-driven Spatio-Temporal Attention (ASTA) 機構を備えたマルチタスクフレームワークを提案する。
論文 参考訳(メタデータ) (2020-06-13T09:15:38Z) - Intra-Camera Supervised Person Re-Identification [87.88852321309433]
本稿では,カメラごとの個人識別アノテーションに基づく新しい人物識別パラダイムを提案する。
これにより、最も時間がかかり、面倒なカメラ間IDラベリングプロセスがなくなる。
MATE(Multi-tAsk mulTi-labEl)Deep Learning method for intra-Camera Supervised (ICS) person re-id。
論文 参考訳(メタデータ) (2020-02-12T15:26:33Z) - Towards Precise Intra-camera Supervised Person Re-identification [54.86892428155225]
人物の再識別(Re-ID)のためのカメラ内監視(ICS)は、アイデンティティラベルが各カメラビュー内に独立してアノテートされていると仮定する。
カメラ間ラベルの欠如により、ICS Re-ID問題は、完全に監督されたラベルよりもはるかに難しい。
われわれの手法は、2つのデータセットで最先端の完全教師付き手法に匹敵する性能を発揮する。
論文 参考訳(メタデータ) (2020-02-12T11:56:30Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。