論文の概要: Video Person Re-identification using Attribute-enhanced Features
- arxiv url: http://arxiv.org/abs/2108.06946v1
- Date: Mon, 16 Aug 2021 07:41:27 GMT
- ステータス: 処理完了
- システム内更新日: 2021-08-17 22:12:36.725368
- Title: Video Person Re-identification using Attribute-enhanced Features
- Title(参考訳): 属性強調特徴を用いたビデオ人物再同定
- Authors: Tianrui Chai, Zhiyuan Chen, Annan Li, Jiaxin Chen, Xinyu Mei, Yunhong
Wang
- Abstract要約: 本稿では属性支援型ビデオ人物Re-IDのためのAttribute Salience Assisted Network (ASA-Net) という新しいネットワークアーキテクチャを提案する。
対象を背景からよりよく分離するために,ハイレベルな属性ではなく,中程度の属性から視覚的注意を学習することを提案する。
- 参考スコア(独自算出の注目度): 49.68392018281875
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Video-based person re-identification (Re-ID) which aims to associate people
across non-overlapping cameras using surveillance video is a challenging task.
Pedestrian attribute, such as gender, age and clothing characteristics contains
rich and supplementary information but is less explored in video person Re-ID.
In this work, we propose a novel network architecture named Attribute Salience
Assisted Network (ASA-Net) for attribute-assisted video person Re-ID, which
achieved considerable improvement to existing works by two methods.First, to
learn a better separation of the target from background, we propose to learn
the visual attention from middle-level attribute instead of high-level
identities. The proposed Attribute Salient Region Enhance (ASRE) module can
attend more accurately on the body of pedestrian. Second, we found that many
identity-irrelevant but object or subject-relevant factors like the view angle
and movement of the target pedestrian can greatly influence the two dimensional
appearance of a pedestrian. This problem can be mitigated by investigating both
identity-relevant and identity-irrelevant attributes via a novel triplet loss
which is referred as the Pose~\&~Motion-Invariant (PMI) triplet loss.
- Abstract(参考訳): ビデオベースの人物再識別(re-id)は、重複しないカメラにまたがる人々を監視ビデオで関連付けることを目的としている。
性別、年齢、服装などの歩行者属性は、リッチで補足的な情報を含んでいるが、ビデオパーソンのリidでは探索されにくい。
本研究では,属性支援型ビデオ人物Re-IDのためのAttribute Salience Assisted Network (ASA-Net) という新しいネットワークアーキテクチャを提案する。
提案されているAttribute Salient Region Enhance (ASRE)モジュールは、歩行者の体にもっと正確に対応できる。
第2に,対象歩行者の視角や移動といった,同一性に欠ける対象的・対象的関連要因が,歩行者の2次元的外観に大きく影響することを発見した。
この問題は、Pose~\&~Motion-Invariant(PMI)三重項損失と呼ばれる新しい三重項損失を通じて、アイデンティティ関連属性とアイデンティティ関連属性の両方を調べることで緩和することができる。
関連論文リスト
- Disentangled Representations for Short-Term and Long-Term Person Re-Identification [33.76874948187976]
アイデンティティシャッフルGAN(Identity shuffle GAN:IS-GAN)と呼ばれる新たな生成対向ネットワークを提案する。
それは、アイデンティティシャッフル技術によって、個人画像からアイデンティティ関連および非関連の特徴を解き放つ。
実験により,IS-GANの有効性が検証され,標準reIDベンチマークにおける最先端性能が示された。
論文 参考訳(メタデータ) (2024-09-09T02:09:49Z) - Identity-Guided Collaborative Learning for Cloth-Changing Person
Reidentification [29.200286257496714]
着替え型ReIDのための新しいID誘導協調学習手法(IGCL)を提案する。
まず,衣服情報による干渉を合理的に低減するために,新しい衣服注意ストリームを設計する。
次に,人間のセマンティック・アテンションとボディー・ジグソー・ストリームを提案し,人間のセマンティック・情報を強調し,同じアイデンティティの異なるポーズをシミュレートする。
第3に、歩行者のアイデンティティ強化ストリームがさらに提案され、アイデンティティの重要性を高め、より好ましいアイデンティティロバストな特徴を抽出する。
論文 参考訳(メタデータ) (2023-04-10T06:05:54Z) - Multigranular Visual-Semantic Embedding for Cloth-Changing Person
Re-identification [38.7806002518266]
本研究は, 布を交換するReIDのための新しいビジュアル・セマンティック・埋め込み・アルゴリズム(MVSE)を提案する。
衣服の変化のある人を完全に表現するために、多粒性特徴表現スキーム(MGR)を採用し、その後、布脱感ネットワーク(CDN)を設計する。
人的属性の整合に使用される視覚意味情報を得るために,部分意味整合ネットワーク(PSA)を提案する。
論文 参考訳(メタデータ) (2021-08-10T09:14:44Z) - Multi-Attribute Enhancement Network for Person Search [7.85420914437147]
人物探索は、人物検出と人物再識別(Re-ID)の問題を共同で解くように設計されている
視覚的な文字属性は、Re-IDで検索されたが、Person Searchで無視されたクエリ人物を取得する上で重要な役割を果たします。
本稿では,属性学習をモデルに導入し,属性機能を検索タスクに活用する。
論文 参考訳(メタデータ) (2021-02-16T05:43:47Z) - AttributeNet: Attribute Enhanced Vehicle Re-Identification [70.89289512099242]
本稿では,属性特徴と属性特徴を共同で抽出するAttributeNet(ANet)を提案する。
ReID-helpful属性特徴を蒸留し、一般的なReID特徴に加えることで、識別能力を高めることができる。
3つの挑戦的なデータセットに対して,我々のフレームワークの有効性を検証する。
論文 参考訳(メタデータ) (2021-02-07T19:51:02Z) - PoseTrackReID: Dataset Description [97.7241689753353]
詩情報は、背景や閉塞音から有用な特徴情報を遠ざけるのに役立つ。
PoseTrackReIDでは、人物のリIDと複数人のポーズトラッキングのギャップを埋めたいと考えています。
このデータセットは、マルチフレームの人物のre-IDに関する現在の最先端メソッドに対する優れたベンチマークを提供する。
論文 参考訳(メタデータ) (2020-11-12T07:44:25Z) - Identity-Aware Multi-Sentence Video Description [105.13845996039277]
本稿では,一組のクリップ内に一貫した人物の身元を予測することを目的とした,身元確認の補助的タスクを提案する。
鍵となるコンポーネントの1つは、性別を意識したテキスト表現であり、メインモデルにおける追加の性別予測目標である。
実験の結果,提案したフィリング・イン・ザ・アイデンティティ・モデルは,いくつかのベースラインや最近の研究よりも優れていることがわかった。
論文 参考訳(メタデータ) (2020-08-22T09:50:43Z) - Learning Person Re-identification Models from Videos with Weak
Supervision [53.53606308822736]
本稿では、監督の弱いビデオから人物再識別モデルを学ぶ問題について紹介する。
このようなビデオレベルラベルを用いた人物再識別のための多段階注意学習フレームワークを提案する。
注意重みは、ビデオ中の人物追跡レットではなく、すべての人物画像に基づいて得られるため、学習したモデルはノイズの多いアノテーションの影響を受けにくくなる。
論文 参考訳(メタデータ) (2020-07-21T07:23:32Z) - Attribute-aware Identity-hard Triplet Loss for Video-based Person
Re-identification [51.110453988705395]
ビデオベースの人物識別(Re-ID)は重要なコンピュータビジョンタスクである。
属性認識型ID-hard Triplet Loss (AITL) と呼ばれる新しいメトリクス学習手法を提案する。
ビデオベースのRe-IDの完全なモデルを実現するために,Attribute-driven Spatio-Temporal Attention (ASTA) 機構を備えたマルチタスクフレームワークを提案する。
論文 参考訳(メタデータ) (2020-06-13T09:15:38Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。