論文の概要: Video-based Visible-Infrared Person Re-Identification with Auxiliary
Samples
- arxiv url: http://arxiv.org/abs/2311.15571v1
- Date: Mon, 27 Nov 2023 06:45:22 GMT
- ステータス: 処理完了
- システム内更新日: 2023-11-28 17:08:01.985188
- Title: Video-based Visible-Infrared Person Re-Identification with Auxiliary
Samples
- Title(参考訳): 補助サンプルを用いたビデオベース可視赤外人物再同定
- Authors: Yunhao Du, Cheng Lei, Zhicheng Zhao, Yuan Dong, Fei Su
- Abstract要約: Visible-Infrared person re-identification (VI-ReID) は、可視・赤外線カメラで捉えた人物をマッチングすることを目的としている。
従来は、異なるカメラでモダリティを横断する人物画像から学ぶことに集中していた。
我々はまず,BUPTCampusという大規模なVI-ReIDデータセットをコントリビュートする。
- 参考スコア(独自算出の注目度): 21.781628451676205
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Visible-infrared person re-identification (VI-ReID) aims to match persons
captured by visible and infrared cameras, allowing person retrieval and
tracking in 24-hour surveillance systems. Previous methods focus on learning
from cross-modality person images in different cameras. However, temporal
information and single-camera samples tend to be neglected. To crack this nut,
in this paper, we first contribute a large-scale VI-ReID dataset named
BUPTCampus. Different from most existing VI-ReID datasets, it 1) collects
tracklets instead of images to introduce rich temporal information, 2) contains
pixel-aligned cross-modality sample pairs for better modality-invariant
learning, 3) provides one auxiliary set to help enhance the optimization, in
which each identity only appears in a single camera. Based on our constructed
dataset, we present a two-stream framework as baseline and apply Generative
Adversarial Network (GAN) to narrow the gap between the two modalities. To
exploit the advantages introduced by the auxiliary set, we propose a curriculum
learning based strategy to jointly learn from both primary and auxiliary sets.
Moreover, we design a novel temporal k-reciprocal re-ranking method to refine
the ranking list with fine-grained temporal correlation cues. Experimental
results demonstrate the effectiveness of the proposed methods. We also
reproduce 9 state-of-the-art image-based and video-based VI-ReID methods on
BUPTCampus and our methods show substantial superiority to them. The codes and
dataset are available at: https://github.com/dyhBUPT/BUPTCampus.
- Abstract(参考訳): Visible-Infrared person re-identification (VI-ReID)は、可視・赤外線カメラで捉えた人物をマッチングし、24時間監視システムで人物の検索と追跡を可能にする。
従来は、異なるカメラでモダリティを横断する人物画像から学ぶことに集中していた。
しかし、時間情報やシングルカメラのサンプルは無視される傾向にある。
本稿ではまず,BUPTCampusという大規模VI-ReIDデータセットについて述べる。
既存のvi-reidデータセットと異なり
1)画像の代わりにトラックレットを収集し、豊富な時間情報を導入する。
2)より良いモダリティ不変学習のためのピクセルアラインクロスモダリティサンプルペアを含む。
3)各アイデンティティが1つのカメラにのみ現れる最適化を強化するための補助セットを1つ提供します。
構築したデータセットに基づいて、2ストリームフレームワークをベースラインとして提示し、2つのモード間のギャップを狭めるためにGAN(Generative Adversarial Network)を適用した。
補助集合がもたらす利点を活用するために,予備集合と補助集合の両方から共同で学習するカリキュラム学習ベースの戦略を提案する。
さらに, 微粒な時間相関手法を用いてランキングリストを洗練するための新しい時間的k-相反的再ランク法を設計する。
実験の結果,提案手法の有効性が示された。
また,BUPTCampusでは,9つの最先端画像とビデオベースのVI-ReID法を再現した。
コードとデータセットは、https://github.com/dyhBUPT/BUPTCampus.comで公開されている。
関連論文リスト
- CricaVPR: Cross-image Correlation-aware Representation Learning for Visual Place Recognition [73.51329037954866]
視覚的位置認識のための画像間相関認識を用いたロバストなグローバル表現手法を提案する。
本手法では,バッチ内の複数の画像の相関にアテンション機構を用いる。
本手法は,訓練時間を大幅に短縮し,最先端の手法よりも優れた性能を示す。
論文 参考訳(メタデータ) (2024-02-29T15:05:11Z) - AG-ReID.v2: Bridging Aerial and Ground Views for Person Re-identification [39.58286453178339]
空中人物再識別(Re-ID)は、コンピュータビジョンにおいて固有の課題を提示する。
AG-ReID.v2は、空中および地上の混合シナリオにおいて、人物Re-ID用に特別に設計されたデータセットである。
このデータセットは、1,615人のユニークな個人の100,502枚の画像で構成され、それぞれに一致するIDと15のソフト属性ラベルが付加されている。
論文 参考訳(メタデータ) (2024-01-05T04:53:33Z) - Contrastive Transformer Learning with Proximity Data Generation for
Text-Based Person Search [60.626459715780605]
記述的なテキストクエリーを与えられたテキストベースの人物検索は、画像ギャラリーからベストマッチした人物を検索することを目的としている。
このようなクロスモーダル検索タスクは、重要なモダリティギャップ、きめ細かい相違、注釈付きデータの不十分さのため、かなり難しい。
本稿では,テキストに基づく人物検索のための2つのトランスフォーマーモデルを提案する。
論文 参考訳(メタデータ) (2023-11-15T16:26:49Z) - Deeply-Coupled Convolution-Transformer with Spatial-temporal
Complementary Learning for Video-based Person Re-identification [91.56939957189505]
本稿では,高性能ビデオベース Re-ID のための新しい時空間補完学習フレームワークである Deeply-Coupled Convolution-Transformer (DCCT) を提案する。
私たちのフレームワークは、ほとんどの最先端のメソッドよりも優れたパフォーマンスを実現できます。
論文 参考訳(メタデータ) (2023-04-27T12:16:44Z) - Pose-Aided Video-based Person Re-Identification via Recurrent Graph
Convolutional Network [41.861537712563816]
本稿では,映像検索機能以外の識別的ポーズ特徴を学習することを提案する。
ポーズの特徴を学習するために、私たちはまず、オフザシェルフポーズ検知器を通して各フレーム内の歩行者のポーズを検出する。
次に、繰り返しグラフ畳み込みネットワーク(RGCN)を用いて、時間的ポーズグラフのノード埋め込みを学習する。
論文 参考訳(メタデータ) (2022-09-23T13:20:33Z) - Learning Modal-Invariant and Temporal-Memory for Video-based
Visible-Infrared Person Re-Identification [46.49866514866999]
主にビデオベースのクロスモーダル人物Re-ID法について研究する。
トラックレット内のフレームの増加により,性能が向上することが証明された。
モーダル不変部分空間に2つのモダリティを投影する新しい手法を提案する。
論文 参考訳(メタデータ) (2022-08-04T04:43:52Z) - On Exploring Pose Estimation as an Auxiliary Learning Task for
Visible-Infrared Person Re-identification [66.58450185833479]
本稿では,Pose Estimationを補助学習タスクとして活用して,エンドツーエンドフレームワークにおけるVI-ReIDタスクを支援する。
これら2つのタスクを相互に有利な方法で共同でトレーニングすることにより、高品質なモダリティ共有とID関連の特徴を学習する。
2つのベンチマークVI-ReIDデータセットの実験結果から,提案手法は一定のマージンで最先端の手法を継続的に改善することが示された。
論文 参考訳(メタデータ) (2022-01-11T09:44:00Z) - Camera-Tracklet-Aware Contrastive Learning for Unsupervised Vehicle
Re-Identification [4.5471611558189124]
車両識別ラベルのないマルチカメラ・トラックレット情報を用いたカメラ・トラックレット対応コントラスト学習(CTACL)を提案する。
提案したCTACLは、全車両画像(全車両画像)を複数のカメラレベルの画像に分割し、コントラスト学習を行う。
本稿では,ビデオベースおよび画像ベース車両のRe-IDデータセットに対するアプローチの有効性を示す。
論文 参考訳(メタデータ) (2021-09-14T02:12:54Z) - Graph Convolution for Re-ranking in Person Re-identification [40.9727538382413]
類似度指標としてユークリッド距離を保ちながら,学習特徴を改善するグラフベースの再ランク付け手法を提案する。
ビデオ中の各トラックレットのプロファイルベクトルを生成するための簡易で効果的な手法が提案されている。
論文 参考訳(メタデータ) (2021-07-05T18:40:43Z) - Spatial-Temporal Correlation and Topology Learning for Person
Re-Identification in Videos [78.45050529204701]
クロススケール空間時空間相関をモデル化し, 識別的, 堅牢な表現を追求する新しい枠組みを提案する。
CTLはCNNバックボーンとキーポイント推定器を使用して人体から意味的局所的特徴を抽出する。
グローバルな文脈情報と人体の物理的接続の両方を考慮して、多スケールグラフを構築するためのコンテキスト強化トポロジーを探求する。
論文 参考訳(メタデータ) (2021-04-15T14:32:12Z) - Camera-aware Proxies for Unsupervised Person Re-Identification [60.26031011794513]
本稿では、アノテーションを必要としない純粋に教師なしの人物識別(Re-ID)問題に取り組む。
各クラスタを複数のプロキシに分割し、それぞれのプロキシが同じカメラからのインスタンスを表すことを提案する。
カメラ認識プロキシに基づいて、カメラ内およびカメラ間コントラスト学習コンポーネントをre-idモデル用に設計する。
論文 参考訳(メタデータ) (2020-12-19T12:37:04Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。