論文の概要: Attribute-aware Identity-hard Triplet Loss for Video-based Person
Re-identification
- arxiv url: http://arxiv.org/abs/2006.07597v1
- Date: Sat, 13 Jun 2020 09:15:38 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-21 21:08:51.673357
- Title: Attribute-aware Identity-hard Triplet Loss for Video-based Person
Re-identification
- Title(参考訳): 人物再同定のための属性認識型アイデンティティハードトリプルトロス
- Authors: Zhiyuan Chen, Annan Li, Shilu Jiang, Yunhong Wang
- Abstract要約: ビデオベースの人物識別(Re-ID)は重要なコンピュータビジョンタスクである。
属性認識型ID-hard Triplet Loss (AITL) と呼ばれる新しいメトリクス学習手法を提案する。
ビデオベースのRe-IDの完全なモデルを実現するために,Attribute-driven Spatio-Temporal Attention (ASTA) 機構を備えたマルチタスクフレームワークを提案する。
- 参考スコア(独自算出の注目度): 51.110453988705395
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Video-based person re-identification (Re-ID) is an important computer vision
task. The batch-hard triplet loss frequently used in video-based person Re-ID
suffers from the Distance Variance among Different Positives (DVDP) problem. In
this paper, we address this issue by introducing a new metric learning method
called Attribute-aware Identity-hard Triplet Loss (AITL), which reduces the
intra-class variation among positive samples via calculating attribute
distance. To achieve a complete model of video-based person Re-ID, a multi-task
framework with Attribute-driven Spatio-Temporal Attention (ASTA) mechanism is
also proposed. Extensive experiments on MARS and DukeMTMC-VID datasets shows
that both the AITL and ASTA are very effective. Enhanced by them, even a simple
light-weighted video-based person Re-ID baseline can outperform existing
state-of-the-art approaches. The codes has been published on
https://github.com/yuange250/Video-based-person-ReID-with-Attribute-information.
- Abstract(参考訳): ビデオベースの人物識別(Re-ID)は重要なコンピュータビジョンタスクである。
ビデオベースのRe-IDで頻繁に使用されるバッチハード三重項損失は、異なる陽性者(DVDP)間の距離変動に悩まされる。
本稿では,属性距離を計算することで,正のサンプルのクラス内変動を低減するAITL(Attribute-aware Identity-hard Triplet Loss)と呼ばれる新しいメトリクス学習手法を導入することで,この問題に対処する。
ビデオベースのRe-IDの完全なモデルを実現するために,Attribute-driven Spatio-Temporal Attention (ASTA) 機構を備えたマルチタスクフレームワークを提案する。
MARSとDukeMTMC-VIDデータセットの大規模な実験は、AITLとASTAの両方が非常に効果的であることを示している。
それらによって強化されたシンプルな軽量ビデオベースのperson re-idベースラインでさえ、既存の最先端のアプローチを上回ることができる。
コードはhttps://github.com/yuange250/Video-based-person-ReID-with-Attribute-informationで公開されている。
関連論文リスト
- Video Infringement Detection via Feature Disentanglement and Mutual
Information Maximization [51.206398602941405]
本稿では,元の高次元特徴を複数のサブ機能に分解することを提案する。
歪んだサブ機能の上に,サブ機能を強化する補助的特徴を学習する。
提案手法は,大規模SVDデータセット上で90.1%のTOP-100 mAPを達成し,VCSLベンチマークデータセット上で新たな最先端を設定できる。
論文 参考訳(メタデータ) (2023-09-13T10:53:12Z) - Multi-Stage Spatio-Temporal Aggregation Transformer for Video Person
Re-identification [78.08536797239893]
本稿では,2つの新しいプロキシ埋め込みモジュールを設計したMSTAT(Multi-Stage Space-Temporal Aggregation Transformer)を提案する。
MSTATは、属性関連、アイデンティティ関連、および属性関連情報をビデオクリップからエンコードする3つのステージから構成される。
MSTATは様々な標準ベンチマークで最先端の精度を達成できることを示す。
論文 参考訳(メタデータ) (2023-01-02T05:17:31Z) - A High-Accuracy Unsupervised Person Re-identification Method Using
Auxiliary Information Mined from Datasets [53.047542904329866]
マルチモーダルな特徴学習のためのデータセットから抽出した補助情報を利用する。
本稿では,Restricted Label Smoothing Cross Entropy Loss (RLSCE), Weight Adaptive Triplet Loss (WATL), Dynamic Training Iterations (DTI)の3つの効果的なトレーニング手法を提案する。
論文 参考訳(メタデータ) (2022-05-06T10:16:18Z) - Video Person Re-identification using Attribute-enhanced Features [49.68392018281875]
本稿では属性支援型ビデオ人物Re-IDのためのAttribute Salience Assisted Network (ASA-Net) という新しいネットワークアーキテクチャを提案する。
対象を背景からよりよく分離するために,ハイレベルな属性ではなく,中程度の属性から視覚的注意を学習することを提案する。
論文 参考訳(メタデータ) (2021-08-16T07:41:27Z) - Depth Guided Adaptive Meta-Fusion Network for Few-shot Video Recognition [86.31412529187243]
わずかにラベル付きサンプルで新しいアクションを学習することを目的としたビデオ認識はほとんどない。
本稿では,AMeFu-Netと呼ばれる映像認識のための深度誘導型適応メタフュージョンネットワークを提案する。
論文 参考訳(メタデータ) (2020-10-20T03:06:20Z) - Not 3D Re-ID: a Simple Single Stream 2D Convolution for Robust Video
Re-identification [14.785070524184649]
ビデオベースのRe-IDは、以前の画像ベースの再識別手法の拡張である。
ResNet50-IBNアーキテクチャを利用した単純な単一ストリーム2D畳み込みネットワークの優れた性能を示す。
われわれのアプローチは、データセット間での最良のビデオRe-IDの実践と学習の伝達を利用して、既存の最先端のアプローチを上回ります。
論文 参考訳(メタデータ) (2020-08-14T12:19:32Z) - ESA-ReID: Entropy-Based Semantic Feature Alignment for Person re-ID [7.978877859859102]
実世界の人物識別(re-ID)は、監視システムにおける典型的な応用の他に、コンテンツビデオ(テレビ・映画)における人物識別のリコール率の向上にも意義がある。
本稿では,人間の意味的特徴の詳細な情報を利用するエントロピーに基づく意味的特徴アライメントモデルを提案する。
意味的セグメンテーションの不確実性を考慮すると、エントロピーに基づくマスクとのセグメンテーションアライメントを導入することで、マスクセグメンテーションエラーの負の効果を低減することができる。
論文 参考訳(メタデータ) (2020-07-09T08:56:28Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。