論文の概要: Person Re-identification based on Robust Features in Open-world
- arxiv url: http://arxiv.org/abs/2102.10798v1
- Date: Mon, 22 Feb 2021 06:49:28 GMT
- ステータス: 処理完了
- システム内更新日: 2021-02-24 02:53:32.643371
- Title: Person Re-identification based on Robust Features in Open-world
- Title(参考訳): オープンワールドにおけるロバストな特徴に基づく人物再同定
- Authors: Yaguan Qian and Anlin Sun
- Abstract要約: 既存の再ID研究の欠点を解決するために、低コストで高効率な手法を提案します。
グループ畳み込みによるポーズ推定モデルに基づく歩行者の連続キーポイント獲得手法を提案する。
本手法は, ランク-1: 60.9%, ランク-5: 78.1%, mAP: 49.2%を達成した。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Deep learning technology promotes the rapid development of person
re-identifica-tion (re-ID). However, some challenges are still existing in the
open-world. First, the existing re-ID research usually assumes only one factor
variable (view, clothing, pedestrian pose, pedestrian occlusion, image
resolution, RGB/IR modality) changing, ignoring the complexity of multi-factor
variables in the open-world. Second, the existing re-ID methods are over depend
on clothing color and other apparent features of pedestrian, which are easily
disguised or changed. In addition, the lack of benchmark datasets containing
multi-factor variables is also hindering the practically application of re-ID
in the open-world. In this paper, we propose a low-cost and high-efficiency
method to solve shortcomings of the existing re-ID research, such as unreliable
feature selection, low efficiency of feature extraction, single research
variable, etc. Our approach based on pose estimation model improved by group
convolution to obtain the continuous key points of pedestrian, and utilize
dynamic time warping (DTW) to measure the similarity of features between
different pedestrians. At the same time, to verify the effectiveness of our
method, we provide a miniature dataset which is closer to the real world and
includes pedestrian changing clothes and cross-modality factor variables
fusion. Extensive experiments are conducted and the results show that our
method achieves Rank-1: 60.9%, Rank-5: 78.1%, and mAP: 49.2% on this dataset,
which exceeds most existing state-of-art re-ID models.
- Abstract(参考訳): ディープラーニング技術は、人の再識別(再ID)の急速な発展を促進します。
しかし、いくつかの課題はまだオープンワールドに存在する。
まず、既存のre-ID研究は通常、オープンワールドにおける多要素変数の複雑さを無視しながら、1つの因子変数(ビュー、衣服、歩行者ポーズ、歩行者閉塞、画像解像度、RGB/IRモダリティ)だけを仮定する。
第二に、既存の再ID方法は、簡単に変装または変更される歩行者の衣類の色および他の明らかな特徴に依存します。
さらに、マルチファクタ変数を含むベンチマークデータセットの欠如は、オープンワールドにおけるre-IDの実際的な適用を妨げている。
本稿では,信頼性の低い特徴選択や特徴抽出の低効率,単一研究変数など,既存のre-id研究の欠点を解決するための低コストかつ高効率な手法を提案する。
提案手法は,グループ畳み込みによるポーズ推定モデルに基づく歩行者の連続キーポイント獲得と動的時間ウォーピング(dtw)を用いて,歩行者間の特徴の類似度を測定する。
同時に,本手法の有効性を検証するために,歩行者の着替えやクロスモダリティ係数変数の融合を含む,現実世界に近いミニチュアデータセットを提供する。
広範囲な実験を行い,本手法がランク-1: 60.9%, ランク-5: 78.1%, mAP: 49.2%を達成した。
関連論文リスト
- Dynamic Identity-Guided Attention Network for Visible-Infrared Person Re-identification [17.285526655788274]
Visible-infrared person re-identification (VI-ReID) は、可視光と赤外線の同一性を持つ人物をマッチングすることを目的としている。
既存の方法は一般的に、画像や特徴レベルでのクロスモーダルな違いを橋渡ししようとする。
我々は、動的ID誘導型注意ネットワーク(DIAN)を導入し、アイデンティティ誘導型およびモダリティ一貫性のある埋め込みをマイニングする。
論文 参考訳(メタデータ) (2024-05-21T12:04:56Z) - Robust Ensemble Person Re-Identification via Orthogonal Fusion with Occlusion Handling [4.431087385310259]
排除は、個人再識別(ReID)における大きな課題の1つとして残されている。
本稿では,CNN と Transformer アーキテクチャを併用し,ロバストな特徴表現を生成する深層アンサンブルモデルを提案する。
論文 参考訳(メタデータ) (2024-03-29T18:38:59Z) - An Open-World, Diverse, Cross-Spatial-Temporal Benchmark for Dynamic Wild Person Re-Identification [58.5877965612088]
人物再識別(ReID)は、データ駆動のディープラーニング技術のおかげで大きな進歩を遂げました。
既存のベンチマークデータセットには多様性がなく、これらのデータに基づいてトレーニングされたモデルは、動的なワイルドシナリオに対してうまく一般化できない。
OWDと呼ばれる新しいOpen-World, Diverse, Cross-Spatial-Temporalデータセットを開発した。
論文 参考訳(メタデータ) (2024-03-22T11:21:51Z) - Learning Feature Recovery Transformer for Occluded Person
Re-identification [71.18476220969647]
本稿では,FRT(Feature Recovery Transformer)と呼ばれる2つの課題を同時に解決する手法を提案する。
特徴マッチング時のノイズの干渉を低減するため,両画像に現れる可視領域に着目し,類似性を計算するための可視グラフを開発した。
2つ目の課題は、グラフの類似性に基づいて、各クエリ画像に対して、ギャラリー内の$k$-nearestの隣人の特徴セットを利用して、完全な特徴を復元するリカバリトランスフォーマを提案することである。
論文 参考訳(メタデータ) (2023-01-05T02:36:16Z) - Learning Progressive Modality-shared Transformers for Effective
Visible-Infrared Person Re-identification [27.75907274034702]
我々は,能率VI-ReIDのためのPMT(Progressive Modality-Shared Transformer)という新しいディープラーニングフレームワークを提案する。
モダリティギャップの負の効果を低減するために、まず、グレースケールの画像を補助的なモダリティとして捉え、進歩的な学習戦略を提案する。
クラス内差が大きく,クラス間差が少ない問題に対処するために,識別中心損失を提案する。
論文 参考訳(メタデータ) (2022-12-01T02:20:16Z) - On Exploring Pose Estimation as an Auxiliary Learning Task for
Visible-Infrared Person Re-identification [66.58450185833479]
本稿では,Pose Estimationを補助学習タスクとして活用して,エンドツーエンドフレームワークにおけるVI-ReIDタスクを支援する。
これら2つのタスクを相互に有利な方法で共同でトレーニングすることにより、高品質なモダリティ共有とID関連の特徴を学習する。
2つのベンチマークVI-ReIDデータセットの実験結果から,提案手法は一定のマージンで最先端の手法を継続的に改善することが示された。
論文 参考訳(メタデータ) (2022-01-11T09:44:00Z) - Adversarial Deep Feature Extraction Network for User Independent Human
Activity Recognition [4.988898367111902]
本稿では,人間行動認識のための最大平均不一致(MMD)正則化を用いた対向的対象非依存特徴抽出法を提案する。
本手法は,ユーザに依存しない性能を著しく向上し,結果のばらつきを低減できることを示す,よく知られた公開データセット上での評価を行う。
論文 参考訳(メタデータ) (2021-10-23T07:50:32Z) - Diverse Knowledge Distillation for End-to-End Person Search [81.4926655119318]
人物検索は、画像ギャラリーから特定の人物をローカライズし識別することを目的としている。
最近の手法は2つのグループ、すなわち2段階とエンドツーエンドのアプローチに分類できる。
ボトルネックを解消するために、多様な知識蒸留を備えたシンプルで強力なエンドツーエンドネットワークを提案します。
論文 参考訳(メタデータ) (2020-12-21T09:04:27Z) - Intra-Camera Supervised Person Re-Identification [87.88852321309433]
本稿では,カメラごとの個人識別アノテーションに基づく新しい人物識別パラダイムを提案する。
これにより、最も時間がかかり、面倒なカメラ間IDラベリングプロセスがなくなる。
MATE(Multi-tAsk mulTi-labEl)Deep Learning method for intra-Camera Supervised (ICS) person re-id。
論文 参考訳(メタデータ) (2020-02-12T15:26:33Z) - Deep Learning for Person Re-identification: A Survey and Outlook [233.36948173686602]
人物再識別(Re-ID)は、複数の重複しないカメラを通して興味ある人物を検索することを目的としている。
人物のRe-IDシステム開発に関わるコンポーネントを分離することにより、それをクローズドワールドとオープンワールドのセッティングに分類する。
論文 参考訳(メタデータ) (2020-01-13T12:49:22Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。