論文の概要: Retrieve Anyone: A General-purpose Person Re-identification Task with
Instructions
- arxiv url: http://arxiv.org/abs/2306.07520v3
- Date: Fri, 7 Jul 2023 04:57:22 GMT
- ステータス: 処理完了
- システム内更新日: 2023-07-10 15:07:42.705437
- Title: Retrieve Anyone: A General-purpose Person Re-identification Task with
Instructions
- Title(参考訳): 他人を検索する:指示付き汎用人物再識別タスク
- Authors: Weizhen He and Shixiang Tang and Yiheng Deng and Qihao Chen and
Qingsong Xie and Yizhou Wang and Lei Bai and Feng Zhu and Rui Zhao and Wanli
Ouyang and Donglian Qi and Yunfeng Yan
- Abstract要約: 本稿では,与えられた画像や言語命令に従って,モデルに画像の検索を要求する命令-ReIDタスクを提案する。
実験の結果,OmniReIDベンチマークでトレーニングしたベースラインモデルは,従来のReIDでは+0.6%,+1.4%,市場1501,CUHK03,MSMT17,+0.8%,+2.0%,+13.4%,PRCCではVC-Clothes,LTCC,衣料品の交換ReIDでは+0.4%,CUHK03,MSMT17の改善が可能であった。
- 参考スコア(独自算出の注目度): 64.92627465767005
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Human intelligence can retrieve any person according to both visual and
language descriptions. However, the current computer vision community studies
specific person re-identification (ReID) tasks in different scenarios
separately, which limits the applications in the real world. This paper strives
to resolve this problem by proposing a new instruct-ReID task that requires the
model to retrieve images according to the given image or language
instructions.Our instruct-ReID is a more general ReID setting, where existing
ReID tasks can be viewed as special cases by designing different instructions.
We propose a large-scale OmniReID benchmark and an adaptive triplet loss as a
baseline method to facilitate research in this new setting. Experimental
results show that the baseline model trained on our OmniReID benchmark can
improve +0.6%, +1.4%, 0.2% mAP on Market1501, CUHK03, MSMT17 for traditional
ReID, +0.8%, +2.0%, +13.4% mAP on PRCC, VC-Clothes, LTCC for clothes-changing
ReID, +11.7% mAP on COCAS+ real2 for clothestemplate based clothes-changing
ReID when using only RGB images, +25.4% mAP on COCAS+ real2 for our newly
defined language-instructed ReID. The dataset, model, and code will be
available at https://github.com/hwz-zju/Instruct-ReID.
- Abstract(参考訳): 人間の知性は、視覚と言語の両方の記述に従って、任意の人物を検索することができる。
しかし、現在のコンピュータビジョンコミュニティは、異なるシナリオにおける特定の人物再識別(ReID)タスクを別々に研究しており、現実世界の応用を制限している。
本稿では、与えられた画像や言語命令に従って画像を取得する必要がある新しいインストラクト-ReIDタスクを提案し、既存のReIDタスクを異なる命令を設計することで特別なケースとして見ることができる、より一般的なReID設定である。
そこで本研究では, 大規模omnireidベンチマークと適応三重項損失をベースラインとして提案する。
実験結果から,OmniReIDベンチマークでトレーニングしたベースラインモデルは,従来のReIDでは+0.6%,+1.4%,マーケット1501では0.2%,CUHK03では%,MSMT17では+0.8%,+2.0%,+13.4%,PRCCではVC-Clothes,LTCCでは+11.7%,RGB画像のみを使用する場合にはCOCAS+ real2では+11.7%,新たに定義された言語命令されたReIDでは+25.4%,COCAS+ real2では+25.4%となっている。
データセット、モデル、コードはhttps://github.com/hwz-zju/instruct-reidで入手できる。
関連論文リスト
- Multiple Information Prompt Learning for Cloth-Changing Person Re-Identification [17.948263914620238]
布を交換するReIDのためのMIPL(Multiple Information prompt Learning)方式を提案する。
CISモジュールは、衣料品情報を元のRGBイメージ機能から切り離すように設計されている。
The Bio-guided attention (BGA) module is proposed to increase the learning intensity of the model for key information。
論文 参考訳(メタデータ) (2024-11-01T03:08:10Z) - Instruct-ReID++: Towards Universal Purpose Instruction-Guided Person Re-identification [62.894790379098005]
本稿では,与えられた画像や言語命令に従って,モデルに画像の検索を要求する新しい命令-ReIDタスクを提案する。
Instruct-ReIDは一般的なReID設定の最初の探索であり、既存の6つのReIDタスクを異なる命令を割り当てることで特別なケースとして見ることができる。
本稿では,新しいベースラインモデル IRM を提案する。
論文 参考訳(メタデータ) (2024-05-28T03:35:46Z) - AaP-ReID: Improved Attention-Aware Person Re-identification [2.5761958263376745]
AaP-ReIDは、ResNetベースのアーキテクチャにチャネルの注意を組み込む、より効果的な人物ReIDの手法である。
提案手法は,Channel-Wise Attention Bottleneckブロックを組み込んで,特徴マップにおけるChannel-Wise Attention Bottleneckブロックの重要性を動的に調整することで特徴を識別することができる。
論文 参考訳(メタデータ) (2023-09-27T16:54:38Z) - Body Part-Based Representation Learning for Occluded Person
Re-Identification [102.27216744301356]
隠蔽人物再識別(ReID)とは,隠蔽人物画像と包括的人物画像とのマッチングを目的とした人物検索タスクである。
パートベースの手法は、微細な情報を提供し、部分的に見える人間の体を表現するのに適しているため、有益であることが示されている。
本稿では,BPBreIDという身体部分に基づくReIDモデルを提案する。
論文 参考訳(メタデータ) (2022-11-07T16:48:41Z) - Clothes-Changing Person Re-identification with RGB Modality Only [102.44387094119165]
衣料無関係な特徴を元のRGB画像から抽出するために,CAL(Corthes-based Adrial Loss)を提案する。
ビデオには、よりリッチな外観と、適切な時間的パターンをモデル化するために使用できる追加の時間的情報が含まれている。
論文 参考訳(メタデータ) (2022-04-14T11:38:28Z) - Unsupervised Pre-training for Person Re-identification [90.98552221699508]
大規模無ラベル人物再識別(Re-ID)データセットLUPersonを提案する。
学習者のRe-ID特徴表現の一般化能力を向上させるために,教師なし事前学習を初めて行おうとする。
論文 参考訳(メタデータ) (2020-12-07T14:48:26Z) - Fine-Grained Re-Identification [1.8275108630751844]
本稿では,画像とビデオのReIDを統一する最初のモデルのひとつとして,計算効率のよいReIDモデルFGReIDを提案する。
FGReIDは、ビデオベースの事前学習と空間的特徴の注意を生かして、ビデオと画像の両方のReIDタスクのパフォーマンスを改善する。
論文 参考訳(メタデータ) (2020-11-26T21:04:17Z) - Apparel-invariant Feature Learning for Apparel-changed Person
Re-identification [70.16040194572406]
ほとんどのパブリックなReIDデータセットは、人の外観がほとんど変化しない短時間のウィンドウで収集される。
ショッピングモールのような現実世界の応用では、同じ人の服装が変化し、異なる人が同様の服を着ることがある。
着替えなどの場合や、類似の服を着ている場合などにおいて、アパレル不変の人物表現を学ぶことは極めて重要である。
論文 参考訳(メタデータ) (2020-08-14T03:49:14Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。