論文の概要: Enhancing Long-Term Person Re-Identification Using Global, Local Body
Part, and Head Streams
- arxiv url: http://arxiv.org/abs/2403.02892v1
- Date: Tue, 5 Mar 2024 11:57:10 GMT
- ステータス: 処理完了
- システム内更新日: 2024-03-06 15:10:57.050200
- Title: Enhancing Long-Term Person Re-Identification Using Global, Local Body
Part, and Head Streams
- Title(参考訳): グローバル, 局所体部, ヘッドストリームを用いた長期人物再同定の促進
- Authors: Duy Tran Thanh and Yeejin Lee and Byeongkeun Kang
- Abstract要約: 本稿では,グローバル情報とローカル情報の両方を効果的に学習し,活用する新しいフレームワークを提案する。
提案するフレームワークは、識別分類損失の重み付け和をバックプロパゲートすることによって訓練される。
- 参考スコア(独自算出の注目度): 8.317899947627202
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: This work addresses the task of long-term person re-identification.
Typically, person re-identification assumes that people do not change their
clothes, which limits its applications to short-term scenarios. To overcome
this limitation, we investigate long-term person re-identification, which
considers both clothes-changing and clothes-consistent scenarios. In this
paper, we propose a novel framework that effectively learns and utilizes both
global and local information. The proposed framework consists of three streams:
global, local body part, and head streams. The global and head streams encode
identity-relevant information from an entire image and a cropped image of the
head region, respectively. Both streams encode the most distinct, less
distinct, and average features using the combinations of adversarial erasing,
max pooling, and average pooling. The local body part stream extracts
identity-related information for each body part, allowing it to be compared
with the same body part from another image. Since body part annotations are not
available in re-identification datasets, pseudo-labels are generated using
clustering. These labels are then utilized to train a body part segmentation
head in the local body part stream. The proposed framework is trained by
backpropagating the weighted summation of the identity classification loss, the
pair-based loss, and the pseudo body part segmentation loss. To demonstrate the
effectiveness of the proposed method, we conducted experiments on three
publicly available datasets (Celeb-reID, PRCC, and VC-Clothes). The
experimental results demonstrate that the proposed method outperforms the
previous state-of-the-art method.
- Abstract(参考訳): 本研究は, 長期的人物識別の課題に対処する。
通常、人物の再識別は、人々は服を変えないと考えており、その応用は短期的なシナリオに限定されている。
この制限を克服するために,着替えと着替えの両シナリオを考慮した長期人物再同定について検討する。
本稿では,グローバル情報とローカル情報の両方を効果的に学習し活用する新しい枠組みを提案する。
提案するフレームワークは,グローバル,ローカルボディ部分,ヘッドストリームの3つのストリームで構成されている。
グローバルストリームおよびヘッドストリームは、ヘッド領域の全画像および切り抜き画像から識別関連情報をそれぞれエンコードする。
どちらのストリームも、逆消去、最大プール、平均プールの組み合わせを使って、最も異なる、より明確な、平均的な特徴をエンコードしている。
局所体部ストリームは、各体部について同一関連情報を抽出し、他の画像から同一体部と比較することができる。
ボディ部分アノテーションは再識別データセットでは利用できないため、クラスタリングを使用して擬似ラベルを生成する。
そして、これらのラベルを用いて、局所体部ストリーム内の体部分節ヘッドを訓練する。
提案するフレームワークは、識別分類損失、ペアベース損失、擬似身体部分分割損失の重み付け和をバックプロパゲートすることによって訓練される。
提案手法の有効性を示すため,3つの公開データセット(Celeb-reID,PRCC,VC-Clothes)について実験を行った。
実験の結果,提案手法は従来の最先端手法よりも優れていた。
関連論文リスト
- Part-aware Unified Representation of Language and Skeleton for Zero-shot Action Recognition [57.97930719585095]
本稿では,PURLS(Part-aware Unified Representation between Language and Skeleton)を紹介する。
本手法はスケルトン/言語のバックボーンと3つの大規模データセットを用いて評価する。
その結果、PURLSの普遍性と優れた性能を示し、以前のスケルトンベースのソリューションと他のドメインからの標準ベースラインを上回った。
論文 参考訳(メタデータ) (2024-06-19T08:22:32Z) - Exploring Fine-Grained Representation and Recomposition for Cloth-Changing Person Re-Identification [78.52704557647438]
補助的なアノテーションやデータなしに両方の制約に対処するために,新しいFIne-fine Representation and Recomposition (FIRe$2$) フレームワークを提案する。
FIRe$2$は、広く使われている5つのRe-IDベンチマークで最先端のパフォーマンスを実現することができる。
論文 参考訳(メタデータ) (2023-08-21T12:59:48Z) - Body Part-Based Representation Learning for Occluded Person
Re-Identification [102.27216744301356]
隠蔽人物再識別(ReID)とは,隠蔽人物画像と包括的人物画像とのマッチングを目的とした人物検索タスクである。
パートベースの手法は、微細な情報を提供し、部分的に見える人間の体を表現するのに適しているため、有益であることが示されている。
本稿では,BPBreIDという身体部分に基づくReIDモデルを提案する。
論文 参考訳(メタデータ) (2022-11-07T16:48:41Z) - Adaptive Local-Component-aware Graph Convolutional Network for One-shot
Skeleton-based Action Recognition [54.23513799338309]
骨格に基づく行動認識のための適応的局所成分認識グラフ畳み込みネットワークを提案する。
我々の手法はグローバルな埋め込みよりも強力な表現を提供し、我々のモデルが最先端に到達するのに役立ちます。
論文 参考訳(メタデータ) (2022-09-21T02:33:07Z) - Self-Supervised Video Object Segmentation via Cutout Prediction and
Tagging [117.73967303377381]
本稿では, 自己教師型ビデオオブジェクト(VOS)アプローチを提案する。
本手法は,対象情報と背景情報の両方を考慮した識別学習損失の定式化に基づく。
提案手法であるCT-VOSは, DAVIS-2017 と Youtube-VOS の2つの挑戦的なベンチマークにおいて,最先端の結果を達成している。
論文 参考訳(メタデータ) (2022-04-22T17:53:27Z) - Motion-Aware Transformer For Occluded Person Re-identification [1.9899263094148867]
本研究では,非閉塞者Re-IDを用いた自己教師型深層学習手法を提案する。
従来の研究とは異なり、さまざまな姿勢の写真から得られる動き情報は、主要な人間の身体成分を識別するのに役立ちます。
論文 参考訳(メタデータ) (2022-02-09T02:53:10Z) - Graph-based Person Signature for Person Re-Identifications [17.181807593574764]
詳細な人物の記述(ラベルの属性)と視覚的特徴(ボディパーツとグローバル機能)をグラフに効果的に集約する新しい方法を提案します。
グラフは、人物の再識別のためのマルチブランチマルチタスクフレームワークに統合されます。
提案手法は,技術状況間での競争結果を達成し,他の属性ベースの手法やマスク誘導手法よりも優れる。
論文 参考訳(メタデータ) (2021-04-14T10:54:36Z) - Regional Attention Network (RAN) for Head Pose and Fine-grained Gesture
Recognition [9.131161856493486]
本研究では,CNN(Convolutional Neural Network) である RAN (End-to-end textbfRegional Attention Network) を提案する。
我々の領域は1つ以上の連続した細胞から構成されており、HOG(Histogram of Oriented Gradient)ディスクリプタの計算に使用される戦略に適応している。
提案手法は、異なる指標のかなりの差で最先端の手法より優れている。
論文 参考訳(メタデータ) (2021-01-17T10:14:28Z) - DomainMix: Learning Generalizable Person Re-Identification Without Human
Annotations [89.78473564527688]
本稿では,ラベル付き合成データセットとラベル付き実世界のデータセットを用いてユニバーサルモデルをトレーニングする方法を示す。
このように、人間のアノテーションはもはや不要であり、大規模で多様な現実世界のデータセットにスケーラブルである。
実験結果から,提案手法は完全な人間のアノテーションで訓練されたアノテーションとほぼ同等であることがわかった。
論文 参考訳(メタデータ) (2020-11-24T08:15:53Z) - Person Re-identification: Implicitly Defining the Receptive Fields of
Deep Learning Classification Frameworks [5.123298347655088]
本稿では,ネットワークの受容領域の推論を暗黙的に駆動する手法について述べる。
セグメンテーションモジュールを使用して、各学習インスタンスの前景(重要)/バックグラウンド(無関係)を区別します。
この戦略は典型的にネットワークを早期収束と適切な解へと駆り立て、アイデンティティと記述は相関しない。
論文 参考訳(メタデータ) (2020-01-30T11:45:44Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。