論文の概要: Learning Context-Aware Embedding for Person Search
- arxiv url: http://arxiv.org/abs/2111.14316v1
- Date: Mon, 29 Nov 2021 03:59:29 GMT
- ステータス: 処理完了
- システム内更新日: 2021-12-01 04:34:32.179111
- Title: Learning Context-Aware Embedding for Person Search
- Title(参考訳): 人物探索のための文脈認識埋め込みの学習
- Authors: Shihui Chen, Yueqing Zhuang, Boxun Li
- Abstract要約: 本稿では,コンテキスト認識埋め込みという新しいコンテキスト特徴ヘッドを提案する。
ACAEは、同じ歩行者パターンを見つけるために、人物の特徴を画像内および横断的に繰り返しレビューする。
提案手法は,従来のワンステップ手法と比較して,最先端の手法である。
- 参考スコア(独自算出の注目度): 0.04834203844100679
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Person Search is a relevant task that aims to jointly solve Person Detection
and Person Re-identification(re-ID). Though most previous methods focus on
learning robust individual features for retrieval, it's still hard to
distinguish confusing persons because of illumination, large pose variance, and
occlusion. Contextual information is practically available in person search
task which benefits searching in terms of reducing confusion. To this end, we
present a novel contextual feature head named Attention Context-Aware
Embedding(ACAE) which enhances contextual information. ACAE repeatedly reviews
the person features within and across images to find similar pedestrian
patterns, allowing it to implicitly learn to find possible co-travelers and
efficiently model contextual relevant instances' relations. Moreover, we
propose Image Memory Bank to improve the training efficiency. Experimentally,
ACAE shows extensive promotion when built on different one-step methods. Our
overall methods achieve state-of-the-art results compared with previous
one-step methods.
- Abstract(参考訳): Person Searchは、Person DetectionとPerson Re-identification(re-ID)を共同で解決することを目的とした、関連するタスクである。
従来の手法は、検索のための堅牢な個々の特徴の学習に重点を置いていたが、照明、大きなポーズのばらつき、閉塞などによって、混乱した人物を区別することは依然として困難である。
コンテキスト情報は、混乱を減らすことの助けとなる個人検索タスクで実際に利用可能である。
そこで,本稿では,コンテキスト情報を強化するAttention Context-Aware Embedding (ACAE) という新しい特徴ヘッドを提案する。
ACAEは、画像内の人物の特徴を繰り返しレビューし、類似した歩行者パターンを見つけ、暗黙的にコトラベラを見つけ、コンテキスト関連インスタンスの関係を効率的にモデル化することができる。
さらに,トレーニング効率を向上させるため,画像メモリバンクを提案する。
実験では、ACAEは異なるワンステップの手法で構築した場合に広範囲のプロモーションを行う。
提案手法は,従来のワンステップ手法と比較して最先端の手法である。
関連論文リスト
- Spatio-Temporal Context Prompting for Zero-Shot Action Detection [13.22912547389941]
本稿では,視覚言語モデルの豊富な知識を効果的に活用し,対人インタラクションを実現する手法を提案する。
同時に複数の人物による異なる行動を認識するという課題に対処するために,興味あるトークンスポッティング機構を設計する。
提案手法は,従来の手法に比べて優れた結果を得ることができ,さらにマルチアクションビデオに拡張することができる。
論文 参考訳(メタデータ) (2024-08-28T17:59:05Z) - Self-Explainable Affordance Learning with Embodied Caption [63.88435741872204]
具体的キャプションを具現化したSelf-Explainable Affordance Learning (SEA)を紹介する。
SEAは、ロボットが意図を明確に表現し、説明可能な視覚言語キャプションと視覚能力学習のギャップを埋めることを可能にする。
本稿では, 簡便かつ効率的な方法で, 空き地と自己説明を効果的に組み合わせた新しいモデルを提案する。
論文 参考訳(メタデータ) (2024-04-08T15:22:38Z) - Integrating Language-Derived Appearance Elements with Visual Cues in Pedestrian Detection [51.66174565170112]
本研究では,大言語モデルの強みを文脈的外見の変化の理解に活用するための新しいアプローチを提案する。
本稿では,言語由来の外観要素を定式化し,歩行者検出に視覚的手がかりを取り入れることを提案する。
論文 参考訳(メタデータ) (2023-11-02T06:38:19Z) - Compositional Learning in Transformer-Based Human-Object Interaction
Detection [6.630793383852106]
ラベル付きインスタンスの長期分布は、HOI検出の主要な課題である。
HOI三重奏の性質にインスパイアされた既存のアプローチでは、作曲学習という概念が採用されている。
我々は,構成HoI学習のためのトランスフォーマーベースのフレームワークを創造的に提案する。
論文 参考訳(メタデータ) (2023-08-11T06:41:20Z) - Learning Transferable Pedestrian Representation from Multimodal
Information Supervision [174.5150760804929]
VAL-PATは、移動可能な表現を学習し、様々な歩行者分析タスクをマルチモーダル情報で強化する新しいフレームワークである。
まず、LUPerson-TAデータセットで事前トレーニングを行い、各画像にはテキストと属性アノテーションが含まれている。
次に、学習した表現を、人物のreID、人物属性認識、テキストベースの人物検索など、さまざまな下流タスクに転送する。
論文 参考訳(メタデータ) (2023-04-12T01:20:58Z) - Occluded Person Re-Identification via Relational Adaptive Feature
Correction Learning [8.015703163954639]
複数のカメラが捉えた画像中の被写体再識別(Re-ID)は、歩行者や物体が被写体を隠蔽しているため困難である。
既存のほとんどの手法では、ネットワークを擬似ラベルとして利用しており、エラーを起こしやすい。
本稿では,Occlusion Correction Network (OCNet) を提案する。Occlusion Correction Network (OCNet) は,リレーショナル・ウェイト・ラーニングによって特徴を補正し,外部ネットワークを使わずに多様で代表的な特徴を得られる。
論文 参考訳(メタデータ) (2022-12-09T07:48:47Z) - Specialized Re-Ranking: A Novel Retrieval-Verification Framework for
Cloth Changing Person Re-Identification [36.4001616893874]
Re-IDは通常のRe-IDや生体認証技術よりもセキュリティの高い複雑なシナリオで動作することができる。
類似画像を扱う新しい検索検証フレームワークを提案する。
論文 参考訳(メタデータ) (2022-10-07T14:47:28Z) - Where Does the Performance Improvement Come From? - A Reproducibility
Concern about Image-Text Retrieval [85.03655458677295]
画像テキスト検索は、情報検索分野において、徐々に主要な研究方向になりつつある。
まず、画像テキスト検索タスクに焦点が当てられている理由と関連性について検討する。
本研究では,事前学習と非事前学習による検索モデルの再現の諸側面を解析する。
論文 参考訳(メタデータ) (2022-03-08T05:01:43Z) - Fully Unsupervised Person Re-identification viaSelective Contrastive
Learning [58.5284246878277]
人物再識別(ReID)は、様々なカメラが捉えた画像の中から同一人物を検索することを目的としている。
教師なし特徴学習のための新しい選択型コントラスト学習フレームワークを提案する。
その結果,教師なしのReIDにおける手法の優位性について,最先端技術と比較した。
論文 参考訳(メタデータ) (2020-10-15T09:09:23Z) - From A Glance to "Gotcha": Interactive Facial Image Retrieval with
Progressive Relevance Feedback [72.29919762941029]
本稿では,目撃者から徐々にフィードバックを得て顔画像を取得するためのエンドツーエンドフレームワークを提案する。
追加のアノテーションを必要とせずに、私たちのモデルは少しのレスポンスの努力を犠牲にして適用できます。
論文 参考訳(メタデータ) (2020-07-30T18:46:25Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。