論文の概要: X-ReID: Cross-Instance Transformer for Identity-Level Person
Re-Identification
- arxiv url: http://arxiv.org/abs/2302.02075v1
- Date: Sat, 4 Feb 2023 03:16:18 GMT
- ステータス: 処理完了
- システム内更新日: 2023-02-07 20:22:31.869240
- Title: X-ReID: Cross-Instance Transformer for Identity-Level Person
Re-Identification
- Title(参考訳): X-ReID: アイデンティティレベル人物再識別のためのクロスインスタンス変換器
- Authors: Leqi Shen, Tao He, Yuchen Guo, Guiguang Ding
- Abstract要約: Cross-Identity Instancesモジュール(IntraX)は、ID-Levelの知識を転送するために、異なるIdentityインスタンスをフューズする。
Cross Inter-Identity Instancesモジュール(InterX)は、同じアイデンティティに対する注意応答を改善するために、ハードポジティとハードポジティのインスタンスを含む。
- 参考スコア(独自算出の注目度): 53.047542904329866
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Currently, most existing person re-identification methods use Instance-Level
features, which are extracted only from a single image. However, these
Instance-Level features can easily ignore the discriminative information due to
the appearance of each identity varies greatly in different images. Thus, it is
necessary to exploit Identity-Level features, which can be shared across
different images of each identity. In this paper, we propose to promote
Instance-Level features to Identity-Level features by employing cross-attention
to incorporate information from one image to another of the same identity, thus
more unified and discriminative pedestrian information can be obtained. We
propose a novel training framework named X-ReID. Specifically, a Cross
Intra-Identity Instances module (IntraX) fuses different intra-identity
instances to transfer Identity-Level knowledge and make Instance-Level features
more compact. A Cross Inter-Identity Instances module (InterX) involves hard
positive and hard negative instances to improve the attention response to the
same identity instead of different identity, which minimizes intra-identity
variation and maximizes inter-identity variation. Extensive experiments on
benchmark datasets show the superiority of our method over existing works.
Particularly, on the challenging MSMT17, our proposed method gains 1.1% mAP
improvements when compared to the second place.
- Abstract(参考訳): 現在、ほとんどの既存の人物再識別方法は、単一の画像からのみ抽出されるインスタンスレベル機能を使用している。
しかし、これらのインスタンスレベルの特徴は、各アイデンティティの外観が異なる画像で大きく異なるため、容易に識別情報を無視することができる。
したがって、各アイデンティティの異なるイメージ間で共有できるidレベルの機能を利用する必要がある。
本稿では,同一人物画像から同一人物画像への情報をクロスアテンションで取り込み,より統一的で識別可能な歩行者情報を得ることにより,アイデンティティ・レベル特徴に対するインスタンス・レベル特徴の促進を提案する。
x-reid という新しいトレーニングフレームワークを提案する。
具体的には、cross intra-identity instances module(intrax)は異なるidentityインスタンスを融合してidレベルの知識を転送し、インスタンスレベルの機能をよりコンパクトにする。
InterX(Cross Inter-Identity Instances Module)は、アイデンティティ内の変動を最小限に抑え、アイデンティティ間の変動を最大化する、異なるアイデンティティではなく、同じアイデンティティに対する注意応答を改善するために、ハードポジティとハードポジティのインスタンスを含む。
ベンチマークデータセットに関する広範な実験は、既存の作業よりも優れた方法を示している。
特にMSMT17では,2位に比べて1.1%のmAP改善が得られた。
関連論文リスト
- Disentangled Representations for Short-Term and Long-Term Person Re-Identification [33.76874948187976]
アイデンティティシャッフルGAN(Identity shuffle GAN:IS-GAN)と呼ばれる新たな生成対向ネットワークを提案する。
それは、アイデンティティシャッフル技術によって、個人画像からアイデンティティ関連および非関連の特徴を解き放つ。
実験により,IS-GANの有効性が検証され,標準reIDベンチマークにおける最先端性能が示された。
論文 参考訳(メタデータ) (2024-09-09T02:09:49Z) - Infinite-ID: Identity-preserved Personalization via ID-semantics Decoupling Paradigm [31.06269858216316]
アイデンティティ保存型パーソナライゼーションのためのID-セマンティックデカップリングパラダイムであるInfinite-IDを提案する。
我々は、十分なID情報を取得するために、追加のイメージクロスアテンションモジュールを組み込んだアイデンティティ強化トレーニングを導入する。
また、2つのストリームをシームレスにマージするために、混合アテンションモジュールとAdaIN平均演算を組み合わせた機能相互作用機構を導入する。
論文 参考訳(メタデータ) (2024-03-18T13:39:53Z) - FaceDancer: Pose- and Occlusion-Aware High Fidelity Face Swapping [62.38898610210771]
そこで我々は,FaceDancerという顔のスワップとID転送のための新しい単一ステージ手法を提案する。
アダプティブ・フィーチャー・フュージョン・アテンション(AFFA)と解釈的特徴類似性規則化(IFSR)の2つの主要なコントリビューションがある。
論文 参考訳(メタデータ) (2022-10-19T11:31:38Z) - Protecting Celebrities with Identity Consistency Transformer [119.67996461810304]
アイデンティティ一貫性変換器は、高度なセマンティクス、特にアイデンティティ情報に焦点を当て、内面領域と外面領域におけるアイデンティティの不整合を見つけ、容疑者の顔を検出する。
我々は、アイデンティティ一貫性変換器が、異なるデータセットにまたがるだけでなく、ディープフェイクビデオを含む現実世界のアプリケーションで見られる様々な種類の画像劣化フォームにまたがる優れた一般化能力を示すことを示した。
論文 参考訳(メタデータ) (2022-03-02T18:59:58Z) - Camera-aware Proxies for Unsupervised Person Re-Identification [60.26031011794513]
本稿では、アノテーションを必要としない純粋に教師なしの人物識別(Re-ID)問題に取り組む。
各クラスタを複数のプロキシに分割し、それぞれのプロキシが同じカメラからのインスタンスを表すことを提案する。
カメラ認識プロキシに基づいて、カメラ内およびカメラ間コントラスト学習コンポーネントをre-idモデル用に設計する。
論文 参考訳(メタデータ) (2020-12-19T12:37:04Z) - Taking Modality-free Human Identification as Zero-shot Learning [46.51413603352702]
我々は、新しいモダリティフリーヒューマン識別(MFHI)タスクを、スケーラブルな方法で汎用的なゼロショット学習モデルとして開発する。
各アイデンティティの識別プロトタイプを学習することで、視覚的および意味的なモダリティをブリッジすることができる。
さらに、意味論に基づく空間的注意は、高グローバルなカテゴリーレベルと局所的な属性レベルを区別した表現を得るために、視覚的モダリティに強制される。
論文 参考訳(メタデータ) (2020-10-02T13:08:27Z) - Intra-Camera Supervised Person Re-Identification [87.88852321309433]
本稿では,カメラごとの個人識別アノテーションに基づく新しい人物識別パラダイムを提案する。
これにより、最も時間がかかり、面倒なカメラ間IDラベリングプロセスがなくなる。
MATE(Multi-tAsk mulTi-labEl)Deep Learning method for intra-Camera Supervised (ICS) person re-id。
論文 参考訳(メタデータ) (2020-02-12T15:26:33Z) - Towards Precise Intra-camera Supervised Person Re-identification [54.86892428155225]
人物の再識別(Re-ID)のためのカメラ内監視(ICS)は、アイデンティティラベルが各カメラビュー内に独立してアノテートされていると仮定する。
カメラ間ラベルの欠如により、ICS Re-ID問題は、完全に監督されたラベルよりもはるかに難しい。
われわれの手法は、2つのデータセットで最先端の完全教師付き手法に匹敵する性能を発揮する。
論文 参考訳(メタデータ) (2020-02-12T11:56:30Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。