論文の概要: Towards Anytime Retrieval: A Benchmark for Anytime Person Re-Identification
- arxiv url: http://arxiv.org/abs/2509.16635v1
- Date: Sat, 20 Sep 2025 11:20:22 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-23 18:58:15.899623
- Title: Towards Anytime Retrieval: A Benchmark for Anytime Person Re-Identification
- Title(参考訳): Anytime Retrieval: 任意の人物の再識別のためのベンチマーク
- Authors: Xulin Li, Yan Lu, Bin Liu, Jiaze Li, Qinhong Yang, Tao Gong, Qi Chu, Mang Ye, Nenghai Yu,
- Abstract要約: Anytime Person Re-identification (AT-ReID) は、時間変動に基づく複数のシナリオにおいて効果的な検索を実現することを目的としている。
最初の大規模なデータセットであるAT-USTCは、複数の服を着ている人の403万枚の画像を含む。
シナリオ固有の特徴学習のためのマルチシナリオReIDフレームワークを含むUni-ATという統一モデルを提案する。
- 参考スコア(独自算出の注目度): 85.78039373517021
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In real applications, person re-identification (ReID) is expected to retrieve the target person at any time, including both daytime and nighttime, ranging from short-term to long-term. However, existing ReID tasks and datasets can not meet this requirement, as they are constrained by available time and only provide training and evaluation for specific scenarios. Therefore, we investigate a new task called Anytime Person Re-identification (AT-ReID), which aims to achieve effective retrieval in multiple scenarios based on variations in time. To address the AT-ReID problem, we collect the first large-scale dataset, AT-USTC, which contains 403k images of individuals wearing multiple clothes captured by RGB and IR cameras. Our data collection spans 21 months, and 270 volunteers were photographed on average 29.1 times across different dates or scenes, 4-15 times more than current datasets, providing conditions for follow-up investigations in AT-ReID. Further, to tackle the new challenge of multi-scenario retrieval, we propose a unified model named Uni-AT, which comprises a multi-scenario ReID (MS-ReID) framework for scenario-specific features learning, a Mixture-of-Attribute-Experts (MoAE) module to alleviate inter-scenario interference, and a Hierarchical Dynamic Weighting (HDW) strategy to ensure balanced training across all scenarios. Extensive experiments show that our model leads to satisfactory results and exhibits excellent generalization to all scenarios.
- Abstract(参考訳): 実際の応用では、短期から長期にわたる夜間と夜間の両方を含む、対象者をいつでも回収することが期待されている。
しかし、既存のReIDタスクとデータセットは、利用可能な時間に制約されているため、この要件を満たすことができず、特定のシナリオに対するトレーニングと評価のみを提供する。
そこで本研究では,時間変動に基づく複数のシナリオにおいて効果的な検索を実現することを目的とした,Anytime Person Re-identification (AT-ReID) と呼ばれる新しいタスクについて検討する。
AT-ReID問題に対処するため、RGBとIRカメラで捉えた複数の服を着ている人の403kの画像を含む、最初の大規模なデータセットであるAT-USTCを収集した。
我々のデータ収集は21ヶ月にわたって行われ、270人のボランティアが異なる日付や場面で平均29.1回撮影され、現在のデータセットの4~15倍になり、AT-ReIDにおける追跡調査の条件が提供された。
さらに、シナリオ固有の特徴学習のためのマルチシナリオReID(MS-ReID)フレームワークと、シナリオ間干渉を緩和するMixture-of-Attribute-Experts(MOAE)モジュールと、すべてのシナリオ間でバランスの取れたトレーニングを保証する階層動的ウェイトリング(HDW)戦略を含む、Uni-ATという統合モデルを提案する。
大規模な実験により,本モデルが良好な結果をもたらし,すべてのシナリオに優れた一般化を示すことが示された。
関連論文リスト
- PS-ReID: Advancing Person Re-Identification and Precise Segmentation with Multimodal Retrieval [38.530536338075684]
人物再識別(ReID)は、セキュリティ監視や刑事捜査などの応用において重要な役割を果たす。
画像とテキストの入力を組み合わせたマルチモーダルモデルであるbf PS-ReIDを提案する。
実験の結果、PS-ReIDは、ReIDとセグメンテーションタスクの両方において、ユニモーダルクエリベースのモデルよりも大幅に優れていた。
論文 参考訳(メタデータ) (2025-03-27T15:14:03Z) - CFReID: Continual Few-shot Person Re-Identification [130.5656289348812]
Lifelong ReIDは、複数のドメインにまたがる知識を漸進的に学習し、蓄積するために提案されている。
LReIDモデルは、一般にプライバシとコストの懸念のためにアクセスできない、目に見えない各ドメインの大規模ラベル付きデータでトレーニングする必要がある。
本稿では,数ショットデータを用いてモデルをインクリメンタルにトレーニングし,すべてのドメインでテストするContinual Few-shot ReIDを提案する。
論文 参考訳(メタデータ) (2025-03-24T09:17:05Z) - CHIRLA: Comprehensive High-resolution Identification and Re-identification for Large-scale Analysis [1.6914110481876652]
大規模解析のための総合的高分解能同定と再同定を行う。
データセットには22人の個人、ビデオの5時間以上、識別アノテーション付きの約100万のバウンディングボックスが含まれている。
個人追跡とRe-IDのためのベンチマークプロトコルも定義しています。
論文 参考訳(メタデータ) (2025-02-10T17:07:43Z) - Instruct-ReID++: Towards Universal Purpose Instruction-Guided Person Re-identification [62.894790379098005]
本稿では,与えられた画像や言語命令に従って,モデルに画像の検索を要求する新しい命令-ReIDタスクを提案する。
Instruct-ReIDは一般的なReID設定の最初の探索であり、既存の6つのReIDタスクを異なる命令を割り当てることで特別なケースとして見ることができる。
本稿では,新しいベースラインモデル IRM を提案する。
論文 参考訳(メタデータ) (2024-05-28T03:35:46Z) - Lifelong Unsupervised Domain Adaptive Person Re-identification with
Coordinated Anti-forgetting and Adaptation [127.6168183074427]
本稿では,LUDA (Lifelong Unsupervised Domain Adaptive) という新たなタスクを提案する。
これは、モデルがターゲット環境のラベル付けされていないデータに継続的に適応する必要があるため、難しい。
我々は、CLUDA-ReIDと呼ばれるこのタスクのための効果的なスキームを設計し、そこでは、アンチフォージェッティングが適応と調和して調整される。
論文 参考訳(メタデータ) (2021-12-13T13:19:45Z) - Unsupervised Pre-training for Person Re-identification [90.98552221699508]
大規模無ラベル人物再識別(Re-ID)データセットLUPersonを提案する。
学習者のRe-ID特徴表現の一般化能力を向上させるために,教師なし事前学習を初めて行おうとする。
論文 参考訳(メタデータ) (2020-12-07T14:48:26Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。