論文の概要: Camera-Invariant Meta-Learning Network for Single-Camera-Training Person Re-identification
- arxiv url: http://arxiv.org/abs/2406.14797v1
- Date: Fri, 21 Jun 2024 00:15:32 GMT
- ステータス: 処理完了
- システム内更新日: 2024-06-24 15:12:21.089943
- Title: Camera-Invariant Meta-Learning Network for Single-Camera-Training Person Re-identification
- Title(参考訳): シングルカメラ学習者再識別のためのカメラ不変なメタラーニングネットワーク
- Authors: Jiangbo Pei, Zhuqing Jiang, Aidong Men, Haiying Wang, Haiyong Luo, Shiping Wen,
- Abstract要約: SCT re-ID(Single-camera-training person re-identification)は、SCTデータセットを使用したre-IDモデルをトレーニングすることを目的としている。
SCT re-IDの主な課題は、カメラ間の同一人物(CCSP)データを監視対象とせずに、カメラ不変の特徴表現を学習することである。
SCT re-IDのためのCIMN(Camera-Invariant Meta-Learning Network)を提案する。
- 参考スコア(独自算出の注目度): 21.831927539161413
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Single-camera-training person re-identification (SCT re-ID) aims to train a re-ID model using SCT datasets where each person appears in only one camera. The main challenge of SCT re-ID is to learn camera-invariant feature representations without cross-camera same-person (CCSP) data as supervision. Previous methods address it by assuming that the most similar person should be found in another camera. However, this assumption is not guaranteed to be correct. In this paper, we propose a Camera-Invariant Meta-Learning Network (CIMN) for SCT re-ID. CIMN assumes that the camera-invariant feature representations should be robust to camera changes. To this end, we split the training data into meta-train set and meta-test set based on camera IDs and perform a cross-camera simulation via meta-learning strategy, aiming to enforce the representations learned from the meta-train set to be robust to the meta-test set. With the cross-camera simulation, CIMN can learn camera-invariant and identity-discriminative representations even there are no CCSP data. However, this simulation also causes the separation of the meta-train set and the meta-test set, which ignores some beneficial relations between them. Thus, we introduce three losses: meta triplet loss, meta classification loss, and meta camera alignment loss, to leverage the ignored relations. The experiment results demonstrate that our method achieves comparable performance with and without CCSP data, and outperforms the state-of-the-art methods on SCT re-ID benchmarks. In addition, it is also effective in improving the domain generalization ability of the model.
- Abstract(参考訳): SCT re-ID(Single-camera-training person re-identification)は、SCTデータセットを使用したre-IDモデルをトレーニングすることを目的としている。
SCT re-IDの主な課題は、カメラ間の同一人物(CCSP)データを監視対象とせずに、カメラ不変の特徴表現を学習することである。
従来の方法では、最も類似した人物が別のカメラで見つかるべきであると仮定して対処する。
しかし、この仮定は正しいという保証はない。
本稿では,SCTリIDのためのカメラ不変メタラーニングネットワーク(CIMN)を提案する。
CIMNは、カメラに不変な特徴表現は、カメラの変更に対して堅牢であるべきだと仮定している。
この目的のために,訓練データをカメラIDに基づくメタトレインセットとメタテストセットに分割し,メタ学習戦略によるクロスカメラシミュレーションを行い,メタテストセットに頑健なメタトレインセットから学習した表現を強制することを目的とした。
クロスカメラシミュレーションにより、CIMNはCCSPデータがない場合でも、カメラ不変およびアイデンティティ識別表現を学習することができる。
しかし、このシミュレーションはメタトレインセットとメタテストセットの分離を引き起こす。
そこで, メタトリプルト損失, メタ分類損失, メタカメラアライメント損失の3つの損失を, 無視された関係を活用するために導入した。
実験の結果,提案手法はCCSPデータと非対応で同等の性能を示し,SCT re-IDベンチマークの最先端手法よりも優れていた。
さらに,モデルの領域一般化能力の向上にも有効である。
関連論文リスト
- Learning Intra and Inter-Camera Invariance for Isolated Camera
Supervised Person Re-identification [6.477096324232456]
クロスカメラ画像は、単にカメラスタイルで異なるIDとして認識される傾向がある。
本稿では,ISCS設定下での人物のリIDについて検討する。
論文 参考訳(メタデータ) (2023-11-02T11:32:40Z) - Domain-adaptive Person Re-identification without Cross-camera Paired
Samples [12.041823465553875]
長距離シーンから収集されたクロスカメラ歩行者のサンプルには、ポジティブなサンプルがないことが多い。
クロスカメラの負のサンプルを用いて、地域間歩行者の同一性マッチングを実現することは極めて困難である。
クロスカメラ一貫した識別特徴学習に焦点を当てた新しいドメイン適応型人物認識手法を提案する。
論文 参考訳(メタデータ) (2023-07-13T02:42:28Z) - A High-Accuracy Unsupervised Person Re-identification Method Using
Auxiliary Information Mined from Datasets [53.047542904329866]
マルチモーダルな特徴学習のためのデータセットから抽出した補助情報を利用する。
本稿では,Restricted Label Smoothing Cross Entropy Loss (RLSCE), Weight Adaptive Triplet Loss (WATL), Dynamic Training Iterations (DTI)の3つの効果的なトレーニング手法を提案する。
論文 参考訳(メタデータ) (2022-05-06T10:16:18Z) - Cross-Camera Feature Prediction for Intra-Camera Supervised Person
Re-identification across Distant Scenes [70.30052164401178]
人物再識別(Re-ID)は、重複しないカメラビュー間で人物画像をマッチングすることを目的としている。
ICS-DS Re-IDは、カメラ内IDラベル付きクロスカメラアンペアデータを使用してトレーニングを行う。
カメラ横断型自己監視情報マイニングのためのクロスカメラ特徴予測法
グローバルレベルの特徴とローカルレベルの特徴の合同学習は、グローバルなローカルなクロスカメラ特徴予測スキームを形成する。
論文 参考訳(メタデータ) (2021-07-29T11:27:50Z) - Joint Noise-Tolerant Learning and Meta Camera Shift Adaptation for
Unsupervised Person Re-Identification [60.36551512902312]
unsupervised person re-identification (re-ID) は、ラベルのないデータで識別モデルを学ぶことを目的としている。
一般的な方法としては、クラスタ化によって擬似ラベルを取得し、モデルを最適化するために使用する方法がある。
本稿では,両問題を解決するための統一フレームワークを提案する。
論文 参考訳(メタデータ) (2021-03-08T09:13:06Z) - Camera-aware Proxies for Unsupervised Person Re-Identification [60.26031011794513]
本稿では、アノテーションを必要としない純粋に教師なしの人物識別(Re-ID)問題に取り組む。
各クラスタを複数のプロキシに分割し、それぞれのプロキシが同じカメラからのインスタンスを表すことを提案する。
カメラ認識プロキシに基づいて、カメラ内およびカメラ間コントラスト学習コンポーネントをre-idモデル用に設計する。
論文 参考訳(メタデータ) (2020-12-19T12:37:04Z) - Towards Precise Intra-camera Supervised Person Re-identification [54.86892428155225]
人物の再識別(Re-ID)のためのカメラ内監視(ICS)は、アイデンティティラベルが各カメラビュー内に独立してアノテートされていると仮定する。
カメラ間ラベルの欠如により、ICS Re-ID問題は、完全に監督されたラベルよりもはるかに難しい。
われわれの手法は、2つのデータセットで最先端の完全教師付き手法に匹敵する性能を発揮する。
論文 参考訳(メタデータ) (2020-02-12T11:56:30Z) - Rethinking the Distribution Gap of Person Re-identification with
Camera-based Batch Normalization [90.9485099181197]
本稿では,従来のReID手法の動作機構を再考する。
我々は、すべてのカメラの画像データを同じ部分空間に落とすように強制する。
幅広いReIDタスクの実験は、我々のアプローチの有効性を実証している。
論文 参考訳(メタデータ) (2020-01-23T17:22:34Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。