論文の概要: ESA-ReID: Entropy-Based Semantic Feature Alignment for Person re-ID
- arxiv url: http://arxiv.org/abs/2007.04644v1
- Date: Thu, 9 Jul 2020 08:56:28 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-12 04:34:12.262837
- Title: ESA-ReID: Entropy-Based Semantic Feature Alignment for Person re-ID
- Title(参考訳): ESA-ReID:人物再IDのためのエントロピーに基づく意味的特徴アライメント
- Authors: Chaoping Tu, Yin Zhao, Longjun Cai
- Abstract要約: 実世界の人物識別(re-ID)は、監視システムにおける典型的な応用の他に、コンテンツビデオ(テレビ・映画)における人物識別のリコール率の向上にも意義がある。
本稿では,人間の意味的特徴の詳細な情報を利用するエントロピーに基づく意味的特徴アライメントモデルを提案する。
意味的セグメンテーションの不確実性を考慮すると、エントロピーに基づくマスクとのセグメンテーションアライメントを導入することで、マスクセグメンテーションエラーの負の効果を低減することができる。
- 参考スコア(独自算出の注目度): 7.978877859859102
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Person re-identification (re-ID) is a challenging task in real-world. Besides
the typical application in surveillance system, re-ID also has significant
values to improve the recall rate of people identification in content video (TV
or Movies). However, the occlusion, shot angle variations and complicated
background make it far away from application, especially in content video. In
this paper we propose an entropy based semantic feature alignment model, which
takes advantages of the detailed information of the human semantic feature.
Considering the uncertainty of semantic segmentation, we introduce a semantic
alignment with an entropy-based mask which can reduce the negative effects of
mask segmentation errors. We construct a new re-ID dataset based on content
videos with many cases of occlusion and body part missing, which will be
released in future. Extensive studies on both existing datasets and the new
dataset demonstrate the superior performance of the proposed model.
- Abstract(参考訳): 人物の再識別(re-ID)は現実世界の課題である。
監視システムの典型的な応用に加えて、re-idはコンテンツビデオ(テレビや映画)における人物識別のリコール率を向上させる重要な価値を持っている。
しかし、オクルージョン、ショット角度の変化、複雑な背景は、特にコンテンツビデオにおいて、応用から遠く離れている。
本稿では,人間の意味的特徴の詳細な情報を活用するエントロピーに基づく意味的特徴のアライメントモデルを提案する。
セグメンテーションの不確実性を考慮すると,マスクセグメンテーション誤差の負の効果を低減できるエントロピーベースのマスクとのセマンティックアライメントを導入する。
咬合や身体部位の欠如が多いコンテンツビデオに基づく新しいre-idデータセットを構築し,今後公開する予定である。
既存のデータセットと新しいデータセットの両方に関する広範な研究は、提案モデルの優れた性能を示している。
関連論文リスト
- Keypoint Promptable Re-Identification [76.31113049256375]
Occluded Person Re-Identification (ReID) は、その外見に基づいて隠蔽された個人をマッチングするメトリクス学習タスクである。
本稿では、入力バウンディングボックスを意味キーポイントの集合で明示的に補完する新しいReID問題の定式化であるKeypoint Promptable ReID(KPR)を紹介する。
我々は4つの人気のあるReIDベンチマークのためのカスタムキーポイントラベルをリリースした。人物検索の実験だけでなく、ポーズトラッキングの実験も、我々の手法が従来の最先端手法を体系的に超越していることを示す。
論文 参考訳(メタデータ) (2024-07-25T15:20:58Z) - Self-Supervised Learning of Whole and Component-Based Semantic Representations for Person Re-Identification [46.47881384542614]
個人再識別(ReID)は、さまざまな設定にまたがって個人を特定することに焦点を当て、困難な問題である。
本稿では,対話モデルにインスパイアされた局所意味抽出(LSE)モジュールを提案する。
また,LSEを利用したセマンティックReID(Semantic ReID)を導入し,様々なReIDドメインやモダリティをシームレスに移動するための効果的なセマンティックスを学習する。
論文 参考訳(メタデータ) (2023-11-27T19:30:30Z) - Dynamic Prototype Mask for Occluded Person Re-Identification [88.7782299372656]
既存の手法では、目に見える部分を識別するために、余分なネットワークによって提供される身体の手がかりを利用することで、この問題に対処している。
2つの自己明快な事前知識に基づく新しい動的プロトタイプマスク(DPM)を提案する。
この条件下では、隠蔽された表現は、選択された部分空間において自然にうまく整列することができる。
論文 参考訳(メタデータ) (2022-07-19T03:31:13Z) - Reliable Shot Identification for Complex Event Detection via
Visual-Semantic Embedding [72.9370352430965]
本稿では,映像中の事象検出のための視覚的意味的誘導損失法を提案する。
カリキュラム学習に動機付け,高い信頼性の事例で分類器の訓練を開始するために,負の弾性正規化項を導入する。
提案する非ネット正規化問題の解法として,代替最適化アルゴリズムを開発した。
論文 参考訳(メタデータ) (2021-10-12T11:46:56Z) - Pose Invariant Person Re-Identification using Robust Pose-transformation
GAN [11.338815177557645]
人物再識別(re-ID)は、興味ある人物の単一の事例から、画像ギャラリーから人物の画像を検索することを目的としている。
いくつかの進歩にもかかわらず、ロバストな人物再同定のための識別的アイデンティティ感と視点不変特徴の学習は、人間のポーズの変化が大きいため、大きな課題である。
本稿では,ポーズ回帰と特徴融合を組み合わせた生成逆数ネットワークの画像生成機能を利用して,ポーズ不変な特徴学習を実現するre-IDパイプラインを提案する。
論文 参考訳(メタデータ) (2021-04-11T15:47:03Z) - Unsupervised Pre-training for Person Re-identification [90.98552221699508]
大規模無ラベル人物再識別(Re-ID)データセットLUPersonを提案する。
学習者のRe-ID特徴表現の一般化能力を向上させるために,教師なし事前学習を初めて行おうとする。
論文 参考訳(メタデータ) (2020-12-07T14:48:26Z) - Fine-Grained Re-Identification [1.8275108630751844]
本稿では,画像とビデオのReIDを統一する最初のモデルのひとつとして,計算効率のよいReIDモデルFGReIDを提案する。
FGReIDは、ビデオベースの事前学習と空間的特徴の注意を生かして、ビデオと画像の両方のReIDタスクのパフォーマンスを改善する。
論文 参考訳(メタデータ) (2020-11-26T21:04:17Z) - PoseTrackReID: Dataset Description [97.7241689753353]
詩情報は、背景や閉塞音から有用な特徴情報を遠ざけるのに役立つ。
PoseTrackReIDでは、人物のリIDと複数人のポーズトラッキングのギャップを埋めたいと考えています。
このデータセットは、マルチフレームの人物のre-IDに関する現在の最先端メソッドに対する優れたベンチマークを提供する。
論文 参考訳(メタデータ) (2020-11-12T07:44:25Z) - Attribute-aware Identity-hard Triplet Loss for Video-based Person
Re-identification [51.110453988705395]
ビデオベースの人物識別(Re-ID)は重要なコンピュータビジョンタスクである。
属性認識型ID-hard Triplet Loss (AITL) と呼ばれる新しいメトリクス学習手法を提案する。
ビデオベースのRe-IDの完全なモデルを実現するために,Attribute-driven Spatio-Temporal Attention (ASTA) 機構を備えたマルチタスクフレームワークを提案する。
論文 参考訳(メタデータ) (2020-06-13T09:15:38Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。