論文の概要: A High-Accuracy Unsupervised Person Re-identification Method Using
Auxiliary Information Mined from Datasets
- arxiv url: http://arxiv.org/abs/2205.03124v1
- Date: Fri, 6 May 2022 10:16:18 GMT
- ステータス: 処理完了
- システム内更新日: 2022-05-09 13:24:29.114952
- Title: A High-Accuracy Unsupervised Person Re-identification Method Using
Auxiliary Information Mined from Datasets
- Title(参考訳): データセットから抽出した補助情報を用いた高精度教師なし人物再識別手法
- Authors: Hehan Teng, Tao He, Yuchen Guo, Guiguang Ding
- Abstract要約: マルチモーダルな特徴学習のためのデータセットから抽出した補助情報を利用する。
本稿では,Restricted Label Smoothing Cross Entropy Loss (RLSCE), Weight Adaptive Triplet Loss (WATL), Dynamic Training Iterations (DTI)の3つの効果的なトレーニング手法を提案する。
- 参考スコア(独自算出の注目度): 53.047542904329866
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Supervised person re-identification methods rely heavily on high-quality
cross-camera training label. This significantly hinders the deployment of re-ID
models in real-world applications. The unsupervised person re-ID methods can
reduce the cost of data annotation, but their performance is still far lower
than the supervised ones. In this paper, we make full use of the auxiliary
information mined from the datasets for multi-modal feature learning, including
camera information, temporal information and spatial information. By analyzing
the style bias of cameras, the characteristics of pedestrians' motion
trajectories and the positions of camera network, this paper designs three
modules: Time-Overlapping Constraint (TOC), Spatio-Temporal Similarity (STS)
and Same-Camera Penalty (SCP) to exploit the auxiliary information. Auxiliary
information can improve the model performance and inference accuracy by
constructing association constraints or fusing with visual features. In
addition, this paper proposes three effective training tricks, including
Restricted Label Smoothing Cross Entropy Loss (RLSCE), Weight Adaptive Triplet
Loss (WATL) and Dynamic Training Iterations (DTI). The tricks achieve mAP of
72.4% and 81.1% on MARS and DukeMTMC-VideoReID, respectively. Combined with
auxiliary information exploiting modules, our methods achieve mAP of 89.9% on
DukeMTMC, where TOC, STS and SCP all contributed considerable performance
improvements. The method proposed by this paper outperforms most existing
unsupervised re-ID methods and narrows the gap between unsupervised and
supervised re-ID methods. Our code is at
https://github.com/tenghehan/AuxUSLReID.
- Abstract(参考訳): 監視された人物再識別手法は、高品質のクロスカメラ訓練ラベルに大きく依存している。
これは現実世界のアプリケーションへのre-idモデルのデプロイを著しく阻害する。
教師なしのperson re-idメソッドは、データアノテーションのコストを削減できるが、そのパフォーマンスは教師なしメソッドよりもはるかに低い。
本稿では,カメラ情報,時間情報,空間情報を含むマルチモーダル特徴学習において,データセットから抽出した補助情報をフル活用する。
カメラのスタイルバイアス, 歩行者の移動軌跡の特徴, カメラネットワークの位置を解析することにより, 補助情報を利用するために, 時間オーバーラップ制約(TOC), 時空間類似度(STS), サメカメラペナルティ(SCP)の3つのモジュールを設計する。
補助情報は、関連制約を構築したり、視覚的特徴と融合することによって、モデル性能と推測精度を向上させることができる。
さらに,制限ラベル平滑化クロスエントロピー損失(rlsce),重量適応三重項損失(watl),動的トレーニング反復(dti)の3つの効果的なトレーニング手法を提案する。
この手法はMARSとDukeMTMC-VideoReIDでそれぞれ72.4%と81.1%のmAPを達成する。
本手法は補助情報活用モジュールと組み合わせて,TOC,STS,SCPが性能改善に寄与するDukeMTMCにおいて89.9%のmAPを達成した。
本稿では,非教師付き再id法と教師なし再id法のギャップを狭める手法を提案する。
私たちのコードはhttps://github.com/tenghehan/AuxUSLReIDにあります。
関連論文リスト
- DVPE: Divided View Position Embedding for Multi-View 3D Object Detection [7.791229698270439]
現在の研究は、受容場間のバランスと、多視点の特徴を集約する際の干渉を減らすことの課題に直面している。
本稿では,視覚的クロスアテンション機構を通じて特徴を世界規模でモデル化する分割ビュー手法を提案する。
我々のフレームワークはDVPEと呼ばれ、nuScenesテストセット上で最先端のパフォーマンス(57.2% mAPと64.5% NDS)を達成する。
論文 参考訳(メタデータ) (2024-07-24T02:44:41Z) - Benchmarking the Robustness of LiDAR-Camera Fusion for 3D Object
Detection [58.81316192862618]
自律運転における3D知覚のための2つの重要なセンサーは、カメラとLiDARである。
これら2つのモダリティを融合させることで、3次元知覚モデルの性能を大幅に向上させることができる。
我々は、最先端の核融合法を初めてベンチマークした。
論文 参考訳(メタデータ) (2022-05-30T09:35:37Z) - Camera-Tracklet-Aware Contrastive Learning for Unsupervised Vehicle
Re-Identification [4.5471611558189124]
車両識別ラベルのないマルチカメラ・トラックレット情報を用いたカメラ・トラックレット対応コントラスト学習(CTACL)を提案する。
提案したCTACLは、全車両画像(全車両画像)を複数のカメラレベルの画像に分割し、コントラスト学習を行う。
本稿では,ビデオベースおよび画像ベース車両のRe-IDデータセットに対するアプローチの有効性を示す。
論文 参考訳(メタデータ) (2021-09-14T02:12:54Z) - Unsupervised Noisy Tracklet Person Re-identification [100.85530419892333]
本稿では,非照合トラックレットデータから識別的人物再識別モデルを訓練できる選択的トラックレット学習(STL)手法を提案する。
これにより、カメラビュー全体で人物の画像/トラックレットの真のマッチングペアを完全にラベル付けする面倒でコストのかかるプロセスが回避されます。
提案手法は生トラックレットの任意のノイズデータに対して特に頑健であるため,制約のない追跡データから識別モデル学習にスケーラブルである。
論文 参考訳(メタデータ) (2021-01-16T07:31:00Z) - Camera-aware Proxies for Unsupervised Person Re-Identification [60.26031011794513]
本稿では、アノテーションを必要としない純粋に教師なしの人物識別(Re-ID)問題に取り組む。
各クラスタを複数のプロキシに分割し、それぞれのプロキシが同じカメラからのインスタンスを表すことを提案する。
カメラ認識プロキシに基づいて、カメラ内およびカメラ間コントラスト学習コンポーネントをre-idモデル用に設計する。
論文 参考訳(メタデータ) (2020-12-19T12:37:04Z) - Attribute-aware Identity-hard Triplet Loss for Video-based Person
Re-identification [51.110453988705395]
ビデオベースの人物識別(Re-ID)は重要なコンピュータビジョンタスクである。
属性認識型ID-hard Triplet Loss (AITL) と呼ばれる新しいメトリクス学習手法を提案する。
ビデオベースのRe-IDの完全なモデルを実現するために,Attribute-driven Spatio-Temporal Attention (ASTA) 機構を備えたマルチタスクフレームワークを提案する。
論文 参考訳(メタデータ) (2020-06-13T09:15:38Z) - Intra-Camera Supervised Person Re-Identification [87.88852321309433]
本稿では,カメラごとの個人識別アノテーションに基づく新しい人物識別パラダイムを提案する。
これにより、最も時間がかかり、面倒なカメラ間IDラベリングプロセスがなくなる。
MATE(Multi-tAsk mulTi-labEl)Deep Learning method for intra-Camera Supervised (ICS) person re-id。
論文 参考訳(メタデータ) (2020-02-12T15:26:33Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。