論文の概要: Pose-guided Inter- and Intra-part Relational Transformer for Occluded
Person Re-Identification
- arxiv url: http://arxiv.org/abs/2109.03483v1
- Date: Wed, 8 Sep 2021 08:12:28 GMT
- ステータス: 処理完了
- システム内更新日: 2021-09-09 13:46:47.277608
- Title: Pose-guided Inter- and Intra-part Relational Transformer for Occluded
Person Re-Identification
- Title(参考訳): 咬合者再同定のためのPose-Guided Inter-およびInter-part Relational Transformer
- Authors: Zhongxing Ma, Yifan Zhao, Jia Li
- Abstract要約: 歩行者を部分的に排除できるため、人物再識別(Re-Id)は難しい問題である。
本稿では,隠蔽者を対象としたPose-guided Inter-partリレーショナルトランス(Pirt)を提案する。
実験の結果,提案したPrtモデルにより,パブリックな排他的データセット上でのアートの新たな状態が達成されることがわかった。
- 参考スコア(独自算出の注目度): 23.63819648165766
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Person Re-Identification (Re-Id) in occlusion scenarios is a challenging
problem because a pedestrian can be partially occluded. The use of local
information for feature extraction and matching is still necessary. Therefore,
we propose a Pose-guided inter-and intra-part relational transformer (Pirt) for
occluded person Re-Id, which builds part-aware long-term correlations by
introducing transformers. In our framework, we firstly develop a pose-guided
feature extraction module with regional grouping and mask construction for
robust feature representations. The positions of a pedestrian in the image
under surveillance scenarios are relatively fixed, hence we propose an
intra-part and inter-part relational transformer. The intra-part module creates
local relations with mask-guided features, while the inter-part relationship
builds correlations with transformers, to develop cross relationships between
part nodes. With the collaborative learning inter- and intra-part
relationships, experiments reveal that our proposed Pirt model achieves a new
state of the art on the public occluded dataset, and further extensions on
standard non-occluded person Re-Id datasets also reveal our comparable
performances.
- Abstract(参考訳): 閉塞シナリオにおける人物再同定(Re-Id)は、歩行者を部分的に閉塞できるため、難しい問題である。
特徴抽出とマッチングにローカル情報を使用する必要がある。
そこで本稿では,隠蔽されたRe-Idに対するPose-guided Inter-part Relation Transformer(Pirt)を提案する。
本稿ではまず,ロバストな特徴表現のためのグループ化とマスク構成を備えたポーズ誘導型特徴抽出モジュールを開発する。
監視シナリオ下での画像における歩行者の位置は比較的固定されているため,部分内および部分間関係変換器を提案する。
部分内モジュールはマスク誘導された特徴と局所的な関係を作り、部分間関係は変換器との相関を構築し、部分ノード間の相互関係を開発する。
共同学習のパート間およびパート内関係により,提案するpirtモデルがパブリック・オクルード・データセットの新たな最先端を達成し,標準の非オクルード・パーソナライズ・リidデータセットのさらなる拡張により,同等のパフォーマンスが明らかにされる。
関連論文リスト
- Robust Ensemble Person Re-Identification via Orthogonal Fusion with Occlusion Handling [4.431087385310259]
排除は、個人再識別(ReID)における大きな課題の1つとして残されている。
本稿では,CNN と Transformer アーキテクチャを併用し,ロバストな特徴表現を生成する深層アンサンブルモデルを提案する。
論文 参考訳(メタデータ) (2024-03-29T18:38:59Z) - RFR-WWANet: Weighted Window Attention-Based Recovery Feature Resolution
Network for Unsupervised Image Registration [7.446209993071451]
Swin変換器は、その計算効率と長距離モデリング能力のために、医用画像解析に注目を集めている。
トランスフォーマーに基づく登録モデルは、複数のボクセルを単一のセマンティックトークンに結合する。
このマージプロセスは変換器をモデルに制限し、粗い粒度の空間情報を生成する。
本研究では, 高精度な空間情報提供を可能にするRFRNet(Recovery Feature Resolution Network)を提案する。
論文 参考訳(メタデータ) (2023-05-07T09:57:29Z) - RePFormer: Refinement Pyramid Transformer for Robust Facial Landmark
Detection [131.1478251760399]
顔のランドマーク検出タスクをピラミッド記憶に沿ったランドマーククエリの精製として定式化する。
具体的には、ピラミッドトランスフォーマーヘッド(PTH)を導入し、ランドマーク間の関係とランドマークとクロススケールコンテキストの間の異種関係の両方を構築する。
動的ランドマークリファインメント(DLR)モジュールは、ランドマークレグレッションをエンドツーエンドのリファインメント手順に分解するために設計されている。
論文 参考訳(メタデータ) (2022-07-08T14:12:26Z) - DepthFormer: Exploiting Long-Range Correlation and Local Information for
Accurate Monocular Depth Estimation [50.08080424613603]
高精度な単分子深度推定には長距離相関が不可欠である。
我々は,このグローバルコンテキストを効果的な注意機構でモデル化するためにTransformerを活用することを提案する。
提案したモデルであるDepthFormerは、最先端のモノクル深度推定手法をはるかに超えている。
論文 参考訳(メタデータ) (2022-03-27T05:03:56Z) - OH-Former: Omni-Relational High-Order Transformer for Person
Re-Identification [30.023365814501137]
我々は,Omni-Relational High-Order Transformer (OH-Former)を提案する。
提案モデル実験の結果は, Market-1501, DukeMTMC, MSMT17, Occluded-Dukeデータセットの最先端性能を示す,優れた有望性を示した。
論文 参考訳(メタデータ) (2021-09-23T06:11:38Z) - Visual Composite Set Detection Using Part-and-Sum Transformers [74.26037922682355]
本稿では,エンドツーエンドのコンポジットセット検出を行うために,PST(Part-and-Sum Detection Transformer)という新しい手法を提案する。
PSTは、カスタムデザインの2段階モデルの結果とほぼ一致しながら、シングルステージモデル間で最先端の結果を達成する。
論文 参考訳(メタデータ) (2021-05-05T16:31:32Z) - TransVG: End-to-End Visual Grounding with Transformers [102.11922622103613]
本稿では,画像に対して言語クエリを接地するタスクに対処するためのトランスフォーマティブベースのフレームワークであるtransvgを提案する。
複雑な核融合モジュールは、高い性能でトランスフォーマーエンコーダ層を単純なスタックで置き換えることができることを示す。
論文 参考訳(メタデータ) (2021-04-17T13:35:24Z) - AAformer: Auto-Aligned Transformer for Person Re-Identification [82.45385078624301]
トランスアーキテクチャにおけるアライメント方式を初めて導入する。
本研究では,人体と非人体の両方をパッチレベルで自動的に検出する自動整列トランス (AAformer) を提案する。
AAformerは、部分アライメントを自己アテンションに統合し、出力[PART]を直接検索する機能として使用することができる。
論文 参考訳(メタデータ) (2021-04-02T08:00:25Z) - Joint Disentangling and Adaptation for Cross-Domain Person
Re-Identification [88.79480792084995]
本稿では,ID関連・非関連特徴を解き放つ共同学習フレームワークを提案し,ID関連特徴空間にのみ適応を強制する。
我々のモデルは、ドメイン間の画像を共有外観空間と2つの別々の構造空間にエンコードするアンタングルモジュールと、共有外観空間上で対角アライメントと自己学習を行う適応モジュールを含む。
論文 参考訳(メタデータ) (2020-07-20T17:57:02Z) - Relation Transformer Network [25.141472361426818]
本稿では,シーングラフ生成と関係予測のためのトランスフォーメーションを提案する。
我々はトランスのエンコーダ・デコーダアーキテクチャを利用して,ノードとエッジのリッチな機能埋め込みを行う。
我々の関係予測モジュールは学習ノードとエッジ埋め込みから有向関係を分類する。
論文 参考訳(メタデータ) (2020-04-13T20:47:01Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。