論文の概要: Learning Instance-level Spatial-Temporal Patterns for Person
Re-identification
- arxiv url: http://arxiv.org/abs/2108.00171v1
- Date: Sat, 31 Jul 2021 07:44:47 GMT
- ステータス: 翻訳完了
- システム内更新日: 2021-08-03 15:21:12.219294
- Title: Learning Instance-level Spatial-Temporal Patterns for Person
Re-identification
- Title(参考訳): 個人再識別のための事例レベルの空間時間パターンの学習
- Authors: Min Ren and Lingxiao He and Xingyu Liao and Wu Liu and Yunlong Wang
and Tieniu Tan
- Abstract要約: 本稿では,Re-IDの精度を向上させるために,新しいインスタンスレベルおよび時空間ディスタングル型Re-ID法を提案する。
提案フレームワークでは,移動方向などのパーソナライズされた情報を探索空間をさらに狭めるため,明示的に検討している。
提案手法は市場1501で90.8%,DukeMTMC-reIDで89.1%,ベースライン82.2%,72.7%から改善した。
- 参考スコア(独自算出の注目度): 80.43222559182072
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Person re-identification (Re-ID) aims to match pedestrians under dis-joint
cameras. Most Re-ID methods formulate it as visual representation learning and
image search, and its accuracy is consequently affected greatly by the search
space. Spatial-temporal information has been proven to be efficient to filter
irrelevant negative samples and significantly improve Re-ID accuracy. However,
existing spatial-temporal person Re-ID methods are still rough and do not
exploit spatial-temporal information sufficiently. In this paper, we propose a
novel Instance-level and Spatial-Temporal Disentangled Re-ID method (InSTD), to
improve Re-ID accuracy. In our proposed framework, personalized information
such as moving direction is explicitly considered to further narrow down the
search space. Besides, the spatial-temporal transferring probability is
disentangled from joint distribution to marginal distribution, so that outliers
can also be well modeled. Abundant experimental analyses are presented, which
demonstrates the superiority and provides more insights into our method. The
proposed method achieves mAP of 90.8% on Market-1501 and 89.1% on
DukeMTMC-reID, improving from the baseline 82.2% and 72.7%, respectively.
Besides, in order to provide a better benchmark for person re-identification,
we release a cleaned data list of DukeMTMC-reID with this paper:
https://github.com/RenMin1991/cleaned-DukeMTMC-reID/
- Abstract(参考訳): 人物再識別(Re-ID)は、非関節カメラで歩行者をマッチングすることを目的としている。
ほとんどのRe-ID法は視覚表現学習や画像検索として定式化しており,その精度は検索空間に大きく影響している。
空間時空間情報は、無関係な負のサンプルをフィルタリングし、Re-ID精度を大幅に改善することが証明されている。
しかし、既存の時空間人物Re-ID法はまだ粗く、時空間情報を十分に活用していない。
本稿では,Re-IDの精度を向上させるために,新しいインスタンスレベルおよび空間時間ディスタングル型Re-ID法(InSTD)を提案する。
提案手法では,移動方向などのパーソナライズされた情報を検索空間を狭めるために明示的に考慮する。
また、空間-時間移動確率はジョイント分布から辺縁分布に異なっており、外れ値もよくモデル化できる。
豊富な実験分析が行われ,その優越性が示され,より深い知見が得られた。
提案手法は市場1501で90.8%,DukeMTMC-reIDで89.1%,ベースライン82.2%,72.7%から改善した。
さらに、人物の再識別のためのより良いベンチマークを提供するため、本稿ではDukeMTMC-reIDのクリーン化データリストをリリースする。
関連論文リスト
- A High-Accuracy Unsupervised Person Re-identification Method Using
Auxiliary Information Mined from Datasets [53.047542904329866]
マルチモーダルな特徴学習のためのデータセットから抽出した補助情報を利用する。
本稿では,Restricted Label Smoothing Cross Entropy Loss (RLSCE), Weight Adaptive Triplet Loss (WATL), Dynamic Training Iterations (DTI)の3つの効果的なトレーニング手法を提案する。
論文 参考訳(メタデータ) (2022-05-06T10:16:18Z) - A Free Lunch to Person Re-identification: Learning from Automatically
Generated Noisy Tracklets [52.30547023041587]
非教師付きビデオベース再識別(re-ID)手法は、re-IDデータセットのアノテートに必要な高コストの問題を解決するために提案されている。
しかし、彼らのパフォーマンスは監督対象よりもはるかに低い。
本稿では,自動生成人追跡装置から再IDモデルを学習することで,この問題に対処することを提案する。
論文 参考訳(メタデータ) (2022-04-02T16:18:13Z) - No Shifted Augmentations (NSA): compact distributions for robust
self-supervised Anomaly Detection [4.243926243206826]
教師なし異常検出(AD)は正規化の概念を構築し、分布内(ID)と分布外(OOD)データを区別する必要がある。
我々は,ID特徴分布のエンフ幾何学的コンパクト性によって,外乱の分離や検出が容易になるかを検討する。
我々は,IDデータのコンパクトな分布を学習可能にする自己教師型特徴学習ステップに,新たなアーキテクチャ変更を提案する。
論文 参考訳(メタデータ) (2022-03-19T15:55:32Z) - Video-based Person Re-identification without Bells and Whistles [49.51670583977911]
ビデオベースの人物再識別(Re-ID)は、異なるカメラの下で歩行者を特定するために、ビデオトラッカーとトリミングされたビデオフレームをマッチングすることを目的としている。
従来の方法による不完全な検出と追跡の結果から, 収穫したトラックレットの空間的, 時間的不整合が生じている。
本稿では,深層学習に基づくトラックレットの検出と追跡を適用することで,これらの予期せぬノイズを効果的に低減できる簡易な再検出リンク(DL)モジュールを提案する。
論文 参考訳(メタデータ) (2021-05-22T10:17:38Z) - ES-Net: Erasing Salient Parts to Learn More in Re-Identification [46.624740579314924]
画像中の有意領域を消去することで包括的特徴を学習するための新しいネットワーク「Easing-Salient Net (ES-Net)」を提案する。
ES-Netは3つのPerson re-IDベンチマークと2つのVine re-IDベンチマークで最先端の手法より優れています。
論文 参考訳(メタデータ) (2021-03-10T08:19:46Z) - Person Re-identification based on Robust Features in Open-world [0.0]
既存の再ID研究の欠点を解決するために、低コストで高効率な手法を提案します。
グループ畳み込みによるポーズ推定モデルに基づく歩行者の連続キーポイント獲得手法を提案する。
本手法は, ランク-1: 60.9%, ランク-5: 78.1%, mAP: 49.2%を達成した。
論文 参考訳(メタデータ) (2021-02-22T06:49:28Z) - Unsupervised Noisy Tracklet Person Re-identification [100.85530419892333]
本稿では,非照合トラックレットデータから識別的人物再識別モデルを訓練できる選択的トラックレット学習(STL)手法を提案する。
これにより、カメラビュー全体で人物の画像/トラックレットの真のマッチングペアを完全にラベル付けする面倒でコストのかかるプロセスが回避されます。
提案手法は生トラックレットの任意のノイズデータに対して特に頑健であるため,制約のない追跡データから識別モデル学習にスケーラブルである。
論文 参考訳(メタデータ) (2021-01-16T07:31:00Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。