論文の概要: Cross-Camera Feature Prediction for Intra-Camera Supervised Person
Re-identification across Distant Scenes
- arxiv url: http://arxiv.org/abs/2107.13904v1
- Date: Thu, 29 Jul 2021 11:27:50 GMT
- ステータス: 処理完了
- システム内更新日: 2021-07-30 13:26:14.195570
- Title: Cross-Camera Feature Prediction for Intra-Camera Supervised Person
Re-identification across Distant Scenes
- Title(参考訳): 遠隔場面におけるカメラ内監視者再識別のためのクロスカメラ特徴予測
- Authors: Wenhang Ge, Chunyan Pan, Ancong Wu, Hongwei Zheng, Wei-Shi Zheng
- Abstract要約: 人物再識別(Re-ID)は、重複しないカメラビュー間で人物画像をマッチングすることを目的としている。
ICS-DS Re-IDは、カメラ内IDラベル付きクロスカメラアンペアデータを使用してトレーニングを行う。
カメラ横断型自己監視情報マイニングのためのクロスカメラ特徴予測法
グローバルレベルの特徴とローカルレベルの特徴の合同学習は、グローバルなローカルなクロスカメラ特徴予測スキームを形成する。
- 参考スコア(独自算出の注目度): 70.30052164401178
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Person re-identification (Re-ID) aims to match person images across
non-overlapping camera views. The majority of Re-ID methods focus on
small-scale surveillance systems in which each pedestrian is captured in
different camera views of adjacent scenes. However, in large-scale surveillance
systems that cover larger areas, it is required to track a pedestrian of
interest across distant scenes (e.g., a criminal suspect escapes from one city
to another). Since most pedestrians appear in limited local areas, it is
difficult to collect training data with cross-camera pairs of the same person.
In this work, we study intra-camera supervised person re-identification across
distant scenes (ICS-DS Re-ID), which uses cross-camera unpaired data with
intra-camera identity labels for training. It is challenging as cross-camera
paired data plays a crucial role for learning camera-invariant features in most
existing Re-ID methods. To learn camera-invariant representation from
cross-camera unpaired training data, we propose a cross-camera feature
prediction method to mine cross-camera self supervision information from
camera-specific feature distribution by transforming fake cross-camera positive
feature pairs and minimize the distances of the fake pairs. Furthermore, we
automatically localize and extract local-level feature by a transformer. Joint
learning of global-level and local-level features forms a global-local
cross-camera feature prediction scheme for mining fine-grained cross-camera
self supervision information. Finally, cross-camera self supervision and
intra-camera supervision are aggregated in a framework. The experiments are
conducted in the ICS-DS setting on Market-SCT, Duke-SCT and MSMT17-SCT
datasets. The evaluation results demonstrate the superiority of our method,
which gains significant improvements of 15.4 Rank-1 and 22.3 mAP on Market-SCT
as compared to the second best method.
- Abstract(参考訳): 人物再識別(Re-ID)は、重複しないカメラビュー間で人物画像をマッチングすることを目的としている。
Re-ID手法の大半は、隣接するシーンの異なるカメラビューで歩行者が撮影される小規模監視システムに焦点を当てている。
しかし、広い範囲をカバーする大規模な監視システムでは、遠方から興味のある歩行者を追跡する必要がある(例えば、犯罪者はある都市から別の都市へ逃げ出す)。
多くの歩行者が限られた地域にいるため、同一人物のクロスカメラでトレーニングデータを収集することは困難である。
本研究では,遠隔地におけるカメラ内教師による人物再識別(ICS-DS Re-ID)について検討した。
カメラ間のペアリングデータは、既存のRe-IDメソッドでカメラ不変の機能を学ぶ上で重要な役割を果たすため、これは難しい。
クロスカメラ非ペアトレーニングデータからカメラ不変表現を学習するために,偽のクロスカメラ正の特徴対を変換し,偽のペアの距離を最小化することにより,カメラ固有の特徴分布からカメラ間自己監視情報をマイニングするクロスカメラ特徴予測手法を提案する。
さらに,変圧器による局所的な特徴の自動ローカライズと抽出を行う。
グローバルレベルおよびローカルレベル特徴の合同学習は、細粒度クロスカメラ自己監視情報をマイニングするためのグローバルローカルクロスカメラ特徴予測スキームを形成する。
最後に、カメラ間自己監視とカメラ内監視をフレームワークに集約する。
これらの実験は、マーケット-SCT、デューク-SCT、MSMT17-SCTデータセットのICS-DS設定で実施された。
その結果, Market-SCT では第2の最適手法に比べて 15.4 Rank-1 と 22.3 mAP の大幅な改善が得られた。
関連論文リスト
- CLIP-based Camera-Agnostic Feature Learning for Intra-camera Person Re-Identification [11.882424627567998]
ICS ReIDのためのCLIPベースのカメラ非依存特徴学習(CCAFL)という新しいフレームワークを提案する。
2つのカスタムモジュールは、カメラに依存しない歩行者の特徴を積極的に学ぶためにモデルをガイドするように設計されている。
一般的なReIDデータセットの実験では、mAPの精度で58.9%に達し、最先端のメソッドを7.6%上回る。
論文 参考訳(メタデータ) (2024-09-29T05:43:01Z) - Learning Intra and Inter-Camera Invariance for Isolated Camera
Supervised Person Re-identification [6.477096324232456]
クロスカメラ画像は、単にカメラスタイルで異なるIDとして認識される傾向がある。
本稿では,ISCS設定下での人物のリIDについて検討する。
論文 参考訳(メタデータ) (2023-11-02T11:32:40Z) - Domain-adaptive Person Re-identification without Cross-camera Paired
Samples [12.041823465553875]
長距離シーンから収集されたクロスカメラ歩行者のサンプルには、ポジティブなサンプルがないことが多い。
クロスカメラの負のサンプルを用いて、地域間歩行者の同一性マッチングを実現することは極めて困難である。
クロスカメラ一貫した識別特徴学習に焦点を当てた新しいドメイン適応型人物認識手法を提案する。
論文 参考訳(メタデータ) (2023-07-13T02:42:28Z) - Enhancing Multi-Camera People Tracking with Anchor-Guided Clustering and
Spatio-Temporal Consistency ID Re-Assignment [22.531044994763487]
本稿では,アンカークラスタリング誘導を用いたマルチカメラによる複数人物追跡手法を提案する。
提案手法は,各個人固有の重要な特徴を特定することによって,トラッキングの精度を向上させることを目的としている。
この手法は, 合成データと実世界のデータの両方を扱う上で, 堅牢性と有効性を示した。
論文 参考訳(メタデータ) (2023-04-19T07:38:15Z) - Cross-Camera Trajectories Help Person Retrieval in a Camera Network [124.65912458467643]
既存の手法では、純粋な視覚的マッチングや時間的制約を考慮することが多いが、カメラネットワークの空間情報は無視する。
本稿では,時間的情報と空間的情報を統合したクロスカメラ生成に基づく歩行者検索フレームワークを提案する。
本手法の有効性を検証するため,最初のカメラ横断歩行者軌跡データセットを構築した。
論文 参考訳(メタデータ) (2022-04-27T13:10:48Z) - SurroundDepth: Entangling Surrounding Views for Self-Supervised
Multi-Camera Depth Estimation [101.55622133406446]
本研究では,複数の周囲からの情報を組み込んだSurroundDepth法を提案し,カメラ間の深度マップの予測を行う。
具体的には、周囲のすべてのビューを処理し、複数のビューから情報を効果的に融合するクロスビュー変換器を提案する。
実験において,本手法は,挑戦的なマルチカメラ深度推定データセット上での最先端性能を実現する。
論文 参考訳(メタデータ) (2022-04-07T17:58:47Z) - Joint Noise-Tolerant Learning and Meta Camera Shift Adaptation for
Unsupervised Person Re-Identification [60.36551512902312]
unsupervised person re-identification (re-ID) は、ラベルのないデータで識別モデルを学ぶことを目的としている。
一般的な方法としては、クラスタ化によって擬似ラベルを取得し、モデルを最適化するために使用する方法がある。
本稿では,両問題を解決するための統一フレームワークを提案する。
論文 参考訳(メタデータ) (2021-03-08T09:13:06Z) - Towards Precise Intra-camera Supervised Person Re-identification [54.86892428155225]
人物の再識別(Re-ID)のためのカメラ内監視(ICS)は、アイデンティティラベルが各カメラビュー内に独立してアノテートされていると仮定する。
カメラ間ラベルの欠如により、ICS Re-ID問題は、完全に監督されたラベルよりもはるかに難しい。
われわれの手法は、2つのデータセットで最先端の完全教師付き手法に匹敵する性能を発揮する。
論文 参考訳(メタデータ) (2020-02-12T11:56:30Z) - Rethinking the Distribution Gap of Person Re-identification with
Camera-based Batch Normalization [90.9485099181197]
本稿では,従来のReID手法の動作機構を再考する。
我々は、すべてのカメラの画像データを同じ部分空間に落とすように強制する。
幅広いReIDタスクの実験は、我々のアプローチの有効性を実証している。
論文 参考訳(メタデータ) (2020-01-23T17:22:34Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。