論文の概要: Fine-Grained Re-Identification
- arxiv url: http://arxiv.org/abs/2011.13475v2
- Date: Mon, 22 Mar 2021 17:06:19 GMT
- ステータス: 処理完了
- システム内更新日: 2022-09-20 09:13:41.273126
- Title: Fine-Grained Re-Identification
- Title(参考訳): 細粒度再同定
- Authors: Priyank Pathak
- Abstract要約: 本稿では,画像とビデオのReIDを統一する最初のモデルのひとつとして,計算効率のよいReIDモデルFGReIDを提案する。
FGReIDは、ビデオベースの事前学習と空間的特徴の注意を生かして、ビデオと画像の両方のReIDタスクのパフォーマンスを改善する。
- 参考スコア(独自算出の注目度): 1.8275108630751844
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Research into the task of re-identification (ReID) is picking up momentum in
computer vision for its many use cases and zero-shot learning nature. This
paper proposes a computationally efficient fine-grained ReID model, FGReID,
which is among the first models to unify image and video ReID while keeping the
number of training parameters minimal. FGReID takes advantage of video-based
pre-training and spatial feature attention to improve performance on both video
and image ReID tasks. FGReID achieves state-of-the-art (SOTA) on MARS,
iLIDS-VID, and PRID-2011 video person ReID benchmarks. Eliminating temporal
pooling yields an image ReID model that surpasses SOTA on CUHK01 and Market1501
image person ReID benchmarks. The FGReID achieves near SOTA performance on the
vehicle ReID dataset VeRi as well, demonstrating its ability to generalize.
Additionally we do an ablation study analyzing the key features influencing
model performance on ReID tasks. Finally, we discuss the moral dilemmas related
to ReID tasks, including the potential for misuse. Code for this work is
publicly available at https:
//github.com/ppriyank/Fine-grained-ReIdentification.
- Abstract(参考訳): ReID(Re-identification)タスクの研究は、多くのユースケースとゼロショット学習の性質において、コンピュータビジョンの勢いを増している。
本稿では,トレーニングパラメータの最小化を図りながら,画像とビデオのReIDを統一する最初のモデルである,計算効率のよいReIDモデルFGReIDを提案する。
FGReIDは、ビデオベースの事前学習と空間的特徴の注意を生かして、ビデオと画像の両方のReIDタスクのパフォーマンスを改善する。
FGReIDは、MARS、iLIDS-VID、PRID-2011ビデオパーソンReIDベンチマーク上で、最先端(SOTA)を達成する。
時間プーリングの除去は、CUHK01およびMarket1501イメージパーソンReIDベンチマークでSOTAを超えるイメージReIDモデルが得られる。
FGReIDは、車載ReIDデータセットであるVeRiのSOTAに近い性能を実現し、その一般化能力を示している。
また,ReIDタスクにおけるモデル性能に影響を及ぼす重要な特徴を分析する。
最後に、誤用の可能性を含むReIDタスクに関連する道徳的ジレンマについて論じる。
この作業のコードはhttps: //github.com/ppriyank/Fine-grained-ReIdentificationで公開されている。
関連論文リスト
- Cross-video Identity Correlating for Person Re-identification Pre-training [38.43616465478059]
本稿では,CION(Cross-video Identity-cOrrelating Pre-TraiNing)フレームワークを提案する。
CIONは、プログレッシブなマルチレベル denoising 問題としてモデル化することで、クロスビデオ画像からの同一性相関を求める。
また,この分野での多様な研究や応用ニーズを満たすため,ReIDZooというモデル動物園を寄贈した。
論文 参考訳(メタデータ) (2024-09-27T09:12:33Z) - Synthesizing Efficient Data with Diffusion Models for Person Re-Identification Pre-Training [51.87027943520492]
本稿では,既知の同一性に基づく多様な画像の効率向上と生成を行う新しいパラダイムDiffusion-ReIDを提案する。
提案したパラダイムに適合して,まず,5,183個のIDから777K以上の画像で構成された,大規模なRe-IDデータセットDiff-Personを新たに作成する。
論文 参考訳(メタデータ) (2024-06-10T06:26:03Z) - Instruct-ReID++: Towards Universal Purpose Instruction-Guided Person Re-identification [62.894790379098005]
本稿では,与えられた画像や言語命令に従って,モデルに画像の検索を要求する新しい命令-ReIDタスクを提案する。
Instruct-ReIDは一般的なReID設定の最初の探索であり、既存の6つのReIDタスクを異なる命令を割り当てることで特別なケースとして見ることができる。
本稿では,新しいベースラインモデル IRM を提案する。
論文 参考訳(メタデータ) (2024-05-28T03:35:46Z) - Generalizable Re-Identification from Videos with Cycle Association [60.920036335996414]
トレーニングの複雑さの低いre-IDのためのスケーラブルな自己教師型学習手法として,CycAs(CycAs)を提案する。
提案手法に適したLMPビデオという,大規模でラベルのないre-IDデータセットを構築した。
CycAsは、時間的に連続したビデオフレームペア間のインスタンス関連性のサイクル一貫性を強制することによって、re-ID特徴を学習する。
論文 参考訳(メタデータ) (2022-11-07T16:21:57Z) - Unleashing the Potential of Unsupervised Pre-Training with
Intra-Identity Regularization for Person Re-Identification [10.045028405219641]
我々は、UP-ReIDと呼ばれる対照的学習(CL)パイプラインに基づいて、ReIDのための教師なし事前学習フレームワークを設計する。
UP-ReIDにI$2$-の正則化を導入し,大域的な画像的側面と局所的なパッチ的側面の2つの制約としてインスタンス化する。
我々のUP-ReID事前学習モデルは、下流のReID微調整の利点を大いに生かし、最先端の性能を達成することができる。
論文 参考訳(メタデータ) (2021-12-01T07:16:37Z) - Cloth-Changing Person Re-identification from A Single Image with Gait
Prediction and Regularization [65.50321170655225]
本稿では,画像レイドモデルを用いて布非依存表現を学習するための補助タスクとして,歩行認識を導入する。
画像ベースのCloth-Changing ReIDベンチマーク(例えば、LTCC、PRCC、Real28、VC-Clothes)の実験は、GI-ReIDが最先端技術に対して好適に動作することを示した。
論文 参考訳(メタデータ) (2021-03-29T12:10:50Z) - Unsupervised Pre-training for Person Re-identification [90.98552221699508]
大規模無ラベル人物再識別(Re-ID)データセットLUPersonを提案する。
学習者のRe-ID特徴表現の一般化能力を向上させるために,教師なし事前学習を初めて行おうとする。
論文 参考訳(メタデータ) (2020-12-07T14:48:26Z) - ESA-ReID: Entropy-Based Semantic Feature Alignment for Person re-ID [7.978877859859102]
実世界の人物識別(re-ID)は、監視システムにおける典型的な応用の他に、コンテンツビデオ(テレビ・映画)における人物識別のリコール率の向上にも意義がある。
本稿では,人間の意味的特徴の詳細な情報を利用するエントロピーに基づく意味的特徴アライメントモデルを提案する。
意味的セグメンテーションの不確実性を考慮すると、エントロピーに基づくマスクとのセグメンテーションアライメントを導入することで、マスクセグメンテーションエラーの負の効果を低減することができる。
論文 参考訳(メタデータ) (2020-07-09T08:56:28Z) - Attribute-aware Identity-hard Triplet Loss for Video-based Person
Re-identification [51.110453988705395]
ビデオベースの人物識別(Re-ID)は重要なコンピュータビジョンタスクである。
属性認識型ID-hard Triplet Loss (AITL) と呼ばれる新しいメトリクス学習手法を提案する。
ビデオベースのRe-IDの完全なモデルを実現するために,Attribute-driven Spatio-Temporal Attention (ASTA) 機構を備えたマルチタスクフレームワークを提案する。
論文 参考訳(メタデータ) (2020-06-13T09:15:38Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。