論文の概要: Instruct-ReID: A Multi-purpose Person Re-identification Task with Instructions
- arxiv url: http://arxiv.org/abs/2306.07520v5
- Date: Tue, 29 Apr 2025 12:38:20 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-02 19:15:51.503537
- Title: Instruct-ReID: A Multi-purpose Person Re-identification Task with Instructions
- Title(参考訳): Instruct-ReID: 指示を伴う多目的人物識別タスク
- Authors: Weizhen He, Yiheng Deng, Shixiang Tang, Qihao Chen, Qingsong Xie, Yizhou Wang, Lei Bai, Feng Zhu, Rui Zhao, Wanli Ouyang, Donglian Qi, Yunfeng Yan,
- Abstract要約: 本稿では,与えられた画像や言語命令に従って,モデルに画像の検索を要求する命令-ReIDタスクを提案する。
我々の命令-ReIDはより一般的なReID設定であり、既存の6つのReIDタスクを異なる命令を設計することで特別なケースとして見ることができる。
実験結果から,OmniReIDベンチマークで微調整なしでトレーニングした多目的ReIDモデルでは, Market1501, MSMT17, CUHK03, 従来のReIDでは+0.5%, +0.6%, +7.7%mAP, PRCCでは+6.4%, +7.1%, +11.2%mAPの改善が可能であった。
- 参考スコア(独自算出の注目度): 62.86799046733196
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Human intelligence can retrieve any person according to both visual and language descriptions. However, the current computer vision community studies specific person re-identification (ReID) tasks in different scenarios separately, which limits the applications in the real world. This paper strives to resolve this problem by proposing a new instruct-ReID task that requires the model to retrieve images according to the given image or language instructions. Our instruct-ReID is a more general ReID setting, where existing 6 ReID tasks can be viewed as special cases by designing different instructions. We propose a large-scale OmniReID benchmark and an adaptive triplet loss as a baseline method to facilitate research in this new setting. Experimental results show that the proposed multi-purpose ReID model, trained on our OmniReID benchmark without fine-tuning, can improve +0.5%, +0.6%, +7.7% mAP on Market1501, MSMT17, CUHK03 for traditional ReID, +6.4%, +7.1%, +11.2% mAP on PRCC, VC-Clothes, LTCC for clothes-changing ReID, +11.7% mAP on COCAS+ real2 for clothes template based clothes-changing ReID when using only RGB images, +24.9% mAP on COCAS+ real2 for our newly defined language-instructed ReID, +4.3% on LLCM for visible-infrared ReID, +2.6% on CUHK-PEDES for text-to-image ReID. The datasets, the model, and code will be available at https://github.com/hwz-zju/Instruct-ReID.
- Abstract(参考訳): 人間の知性は、視覚的および言語的記述の両方に従って、任意の人物を検索することができる。
しかし、現在のコンピュータビジョンコミュニティは、異なるシナリオにおける特定の人物再識別(ReID)タスクを別々に研究しており、現実世界の応用を制限している。
本稿では、与えられた画像や言語命令に従って画像を取得する必要がある新しい命令-ReIDタスクを提案することで、この問題を解決する。
我々の命令-ReIDはより一般的なReID設定であり、既存の6つのReIDタスクを異なる命令を設計することで特別なケースとして見ることができる。
本稿では, 大規模OmniReIDベンチマークと適応三重項損失をベースラインとして提案する。
実験結果から,提案したOmniReIDベンチマークで微調整なしでトレーニングした多目的ReIDモデルでは, Market1501では+0.5%, +0.6%, +7.7% mAP, CUHK03では+6.4%, +7.1%, +11.2% mAP, PRCCではVC-Clothes, LTCCでは+11.7% mAP, RGB画像のみを使用する場合はCOCAS+ real2では+24.9% mAP, 新たに定義された言語命令されたReIDでは+4.3% mAP, 新たに定義したReIDでは+4.3% mAP, PRCC, VC-Clothes, LTCCでは+11.7% mAP, 衣料テンプレートベースのReIDでは+11.7% mAP, COCAS+ real2, COCAS+ real2では+24.9% mAP,
データセット、モデル、コードはhttps://github.com/hwz-zju/Instruct-ReID.comから入手できる。
関連論文リスト
- DLCR: A Generative Data Expansion Framework via Diffusion for Clothes-Changing Person Re-ID [69.70281727931048]
本稿では,多様な服装の個人画像を生成するための新しいデータ拡張フレームワークを提案する。
5つのベンチマークCC-ReIDデータセットの追加データを生成し、衣服の多様性を10倍に向上する。
この膨大なデータの増加により、進歩的学習とテスト時間予測の洗練という、2つの新しい戦略を導入する。
論文 参考訳(メタデータ) (2024-11-11T18:28:33Z) - Multiple Information Prompt Learning for Cloth-Changing Person Re-Identification [17.948263914620238]
布を交換するReIDのためのMIPL(Multiple Information prompt Learning)方式を提案する。
CISモジュールは、衣料品情報を元のRGBイメージ機能から切り離すように設計されている。
The Bio-guided attention (BGA) module is proposed to increase the learning intensity of the model for key information。
論文 参考訳(メタデータ) (2024-11-01T03:08:10Z) - Instruct-ReID++: Towards Universal Purpose Instruction-Guided Person Re-identification [62.894790379098005]
本稿では,与えられた画像や言語命令に従って,モデルに画像の検索を要求する新しい命令-ReIDタスクを提案する。
Instruct-ReIDは一般的なReID設定の最初の探索であり、既存の6つのReIDタスクを異なる命令を割り当てることで特別なケースとして見ることができる。
本稿では,新しいベースラインモデル IRM を提案する。
論文 参考訳(メタデータ) (2024-05-28T03:35:46Z) - AaP-ReID: Improved Attention-Aware Person Re-identification [2.5761958263376745]
AaP-ReIDは、ResNetベースのアーキテクチャにチャネルの注意を組み込む、より効果的な人物ReIDの手法である。
提案手法は,Channel-Wise Attention Bottleneckブロックを組み込んで,特徴マップにおけるChannel-Wise Attention Bottleneckブロックの重要性を動的に調整することで特徴を識別することができる。
論文 参考訳(メタデータ) (2023-09-27T16:54:38Z) - Body Part-Based Representation Learning for Occluded Person
Re-Identification [102.27216744301356]
隠蔽人物再識別(ReID)とは,隠蔽人物画像と包括的人物画像とのマッチングを目的とした人物検索タスクである。
パートベースの手法は、微細な情報を提供し、部分的に見える人間の体を表現するのに適しているため、有益であることが示されている。
本稿では,BPBreIDという身体部分に基づくReIDモデルを提案する。
論文 参考訳(メタデータ) (2022-11-07T16:48:41Z) - Clothes-Changing Person Re-identification with RGB Modality Only [102.44387094119165]
衣料無関係な特徴を元のRGB画像から抽出するために,CAL(Corthes-based Adrial Loss)を提案する。
ビデオには、よりリッチな外観と、適切な時間的パターンをモデル化するために使用できる追加の時間的情報が含まれている。
論文 参考訳(メタデータ) (2022-04-14T11:38:28Z) - Unsupervised Pre-training for Person Re-identification [90.98552221699508]
大規模無ラベル人物再識別(Re-ID)データセットLUPersonを提案する。
学習者のRe-ID特徴表現の一般化能力を向上させるために,教師なし事前学習を初めて行おうとする。
論文 参考訳(メタデータ) (2020-12-07T14:48:26Z) - Fine-Grained Re-Identification [1.8275108630751844]
本稿では,画像とビデオのReIDを統一する最初のモデルのひとつとして,計算効率のよいReIDモデルFGReIDを提案する。
FGReIDは、ビデオベースの事前学習と空間的特徴の注意を生かして、ビデオと画像の両方のReIDタスクのパフォーマンスを改善する。
論文 参考訳(メタデータ) (2020-11-26T21:04:17Z) - Apparel-invariant Feature Learning for Apparel-changed Person
Re-identification [70.16040194572406]
ほとんどのパブリックなReIDデータセットは、人の外観がほとんど変化しない短時間のウィンドウで収集される。
ショッピングモールのような現実世界の応用では、同じ人の服装が変化し、異なる人が同様の服を着ることがある。
着替えなどの場合や、類似の服を着ている場合などにおいて、アパレル不変の人物表現を学ぶことは極めて重要である。
論文 参考訳(メタデータ) (2020-08-14T03:49:14Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。