論文の概要: Motion-Aware Transformer For Occluded Person Re-identification
- arxiv url: http://arxiv.org/abs/2202.04243v1
- Date: Wed, 9 Feb 2022 02:53:10 GMT
- ステータス: 処理完了
- システム内更新日: 2022-02-10 15:11:10.977890
- Title: Motion-Aware Transformer For Occluded Person Re-identification
- Title(参考訳): 身元確認用モーションアウェア変圧器
- Authors: Mi Zhou, Hongye Liu, Zhekun Lv, Wei Hong, Xiai Chen
- Abstract要約: 本研究では,非閉塞者Re-IDを用いた自己教師型深層学習手法を提案する。
従来の研究とは異なり、さまざまな姿勢の写真から得られる動き情報は、主要な人間の身体成分を識別するのに役立ちます。
- 参考スコア(独自算出の注目度): 1.9899263094148867
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Recently, occluded person re-identification(Re-ID) remains a challenging task
that people are frequently obscured by other people or obstacles, especially in
a crowd massing situation. In this paper, we propose a self-supervised deep
learning method to improve the location performance for human parts through
occluded person Re-ID. Unlike previous works, we find that motion information
derived from the photos of various human postures can help identify major human
body components. Firstly, a motion-aware transformer encoder-decoder
architecture is designed to obtain keypoints heatmaps and part-segmentation
maps. Secondly, an affine transformation module is utilized to acquire motion
information from the keypoint detection branch. Then the motion information
will support the segmentation branch to achieve refined human part segmentation
maps, and effectively divide the human body into reasonable groups. Finally,
several cases demonstrate the efficiency of the proposed model in
distinguishing different representative parts of the human body, which can
avoid the background and occlusion disturbs. Our method consistently achieves
state-of-the-art results on several popular datasets, including occluded,
partial, and holistic.
- Abstract(参考訳): 近年, 人身認証(Re-ID)は, 特に群集状況において, 人や障害物によってしばしば不明瞭化される, 困難な課題である。
本稿では,隠蔽者Re-IDを用いた自己教師型深層学習手法を提案する。
従来の研究とは異なり、さまざまな姿勢の写真から得られる動き情報は、主要な人間の身体成分を識別するのに役立ちます。
まず, 動き認識型トランスフォーマーエンコーダ・デコーダアーキテクチャを用いて, キーポイントのヒートマップと部分分割マップを得る。
次に、アフィン変換モジュールを使用して、キーポイント検出ブランチから動き情報を取得する。
すると、動作情報はセグメンテーションブランチをサポートし、洗練された人間の部分セグメンテーションマップを達成し、人体を合理的なグループに効果的に分割する。
最後に, 背景や咬合障害を回避し, 人体の異なる代表部位を識別する上で, 提案モデルの有効性を示す例もいくつかある。
本手法はoccluded, partial, holisticなど,いくつかの一般的なデータセットにおいて,最先端の結果を一貫して達成する。
関連論文リスト
- DROP: Decouple Re-Identification and Human Parsing with Task-specific
Features for Occluded Person Re-identification [15.910080319118498]
本稿では,隠蔽者再識別(ReID)のためのDouple Re-identificatiOnとHuman Parsing(DROP)手法について紹介する。
ReIDと人間の構文解析の同時学習にグローバルな特徴を用いる主流のアプローチとは異なり、DROPは、前者の劣る性能はReIDと人間の解析機能の異なる要件に起因すると主張している。
実験の結果、DROPの有効性、特にOccluded-Dukeで76.8%のランク1の精度を達成し、2つの主要な方法を超えた。
論文 参考訳(メタデータ) (2024-01-31T17:54:43Z) - Collaborative Feature Learning for Fine-grained Facial Forgery Detection
and Segmentation [56.73855202368894]
偽造検出に関する以前の研究は、主に顔全体に焦点を当てていた。
近年の偽造法では、重要な顔成分を編集し、他の成分をそのまま維持する手法が開発されている。
ファリシファイドコンポーネントの操作とセグメンテーションを同時に検出するための協調的特徴学習手法を提案する。
論文 参考訳(メタデータ) (2023-04-17T08:49:11Z) - Identity-Guided Collaborative Learning for Cloth-Changing Person
Reidentification [29.200286257496714]
着替え型ReIDのための新しいID誘導協調学習手法(IGCL)を提案する。
まず,衣服情報による干渉を合理的に低減するために,新しい衣服注意ストリームを設計する。
次に,人間のセマンティック・アテンションとボディー・ジグソー・ストリームを提案し,人間のセマンティック・情報を強調し,同じアイデンティティの異なるポーズをシミュレートする。
第3に、歩行者のアイデンティティ強化ストリームがさらに提案され、アイデンティティの重要性を高め、より好ましいアイデンティティロバストな特徴を抽出する。
論文 参考訳(メタデータ) (2023-04-10T06:05:54Z) - Occluded Person Re-Identification via Relational Adaptive Feature
Correction Learning [8.015703163954639]
複数のカメラが捉えた画像中の被写体再識別(Re-ID)は、歩行者や物体が被写体を隠蔽しているため困難である。
既存のほとんどの手法では、ネットワークを擬似ラベルとして利用しており、エラーを起こしやすい。
本稿では,Occlusion Correction Network (OCNet) を提案する。Occlusion Correction Network (OCNet) は,リレーショナル・ウェイト・ラーニングによって特徴を補正し,外部ネットワークを使わずに多様で代表的な特徴を得られる。
論文 参考訳(メタデータ) (2022-12-09T07:48:47Z) - Body Part-Based Representation Learning for Occluded Person
Re-Identification [102.27216744301356]
隠蔽人物再識別(ReID)とは,隠蔽人物画像と包括的人物画像とのマッチングを目的とした人物検索タスクである。
パートベースの手法は、微細な情報を提供し、部分的に見える人間の体を表現するのに適しているため、有益であることが示されている。
本稿では,BPBreIDという身体部分に基づくReIDモデルを提案する。
論文 参考訳(メタデータ) (2022-11-07T16:48:41Z) - A Semantic-aware Attention and Visual Shielding Network for
Cloth-changing Person Re-identification [29.026249268566303]
衣服交換者再識別(ReID)は,衣服が変更された歩行者を回収することを目的とした,新たな研究課題である。
異なる服装の人間の外見は大きなバリエーションを示すため、差別的かつ堅牢な特徴表現を抽出する既存のアプローチは非常に困難である。
本研究は, 着替え型ReIDのための新しい意味認識・視覚遮蔽ネットワークを提案する。
論文 参考訳(メタデータ) (2022-07-18T05:38:37Z) - Pose-guided Feature Disentangling for Occluded Person Re-identification
Based on Transformer [15.839842504357144]
人体の一部が障害物によって遮られる可能性があるため、人体再同定は難しい作業です。
既存のポーズ誘導法では、グラフマッチングに従って身体部分を調整することでこの問題を解決している。
本稿では, ポーズ情報を利用して, 意味成分を明瞭にアンタングル化することで, トランスフォーマーに基づくPFD法を提案する。
論文 参考訳(メタデータ) (2021-12-05T03:23:31Z) - Diverse Part Discovery: Occluded Person Re-identification with
Part-Aware Transformer [95.02123369512384]
蓄積された人物の再識別(Re-ID)は、様々な障害や人によってしばしば妨げられるため、困難な作業である。
本稿では,多種多様な部分発見を通して,隠蔽されたRe-IDのための新しいエンドツーエンドのPart-Aware Transformer(PAT)を提案する。
論文 参考訳(メタデータ) (2021-06-08T04:29:07Z) - Generalized Organ Segmentation by Imitating One-shot Reasoning using
Anatomical Correlation [55.1248480381153]
そこで我々は,アノテーション付きオルガンクラスから一般化されたオルガン概念を学習し,その概念を未知のクラスに転送するOrganNetを提案する。
そこで,OrganNetは臓器形態の幅広い変化に効果的に抵抗でき,一発分節タスクで最先端の結果が得られることを示す。
論文 参考訳(メタデータ) (2021-03-30T13:41:12Z) - Liquid Warping GAN with Attention: A Unified Framework for Human Image
Synthesis [58.05389586712485]
我々は、人間の動きの模倣、外見の移入、新しい視点の合成など、人間の画像合成に取り組む。
本稿では,ポーズと形状を乱す3次元ボディーメッシュ回収モジュールを提案する。
我々はまた、人間の動きの模倣、外観伝達、新しいビュー合成を評価するために、新しいデータセット、すなわちiPERデータセットを構築した。
論文 参考訳(メタデータ) (2020-11-18T02:57:47Z) - PoseTrackReID: Dataset Description [97.7241689753353]
詩情報は、背景や閉塞音から有用な特徴情報を遠ざけるのに役立つ。
PoseTrackReIDでは、人物のリIDと複数人のポーズトラッキングのギャップを埋めたいと考えています。
このデータセットは、マルチフレームの人物のre-IDに関する現在の最先端メソッドに対する優れたベンチマークを提供する。
論文 参考訳(メタデータ) (2020-11-12T07:44:25Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。