論文の概要: Exploring Visual Context for Weakly Supervised Person Search
- arxiv url: http://arxiv.org/abs/2106.10506v1
- Date: Sat, 19 Jun 2021 14:47:13 GMT
- ステータス: 処理完了
- システム内更新日: 2021-06-22 15:34:02.537596
- Title: Exploring Visual Context for Weakly Supervised Person Search
- Title(参考訳): 弱監視された人物探索のための視覚コンテキスト探索
- Authors: Yichao Yan, Jinpeng Li, Shengcai Liao, Jie Qin, Bingbing Ni, Xiaokang
Yang, and Ling Shao
- Abstract要約: 人探索は、歩行者の検出と人物の再識別を共同で扱う、困難なタスクとして最近登場した。
既存のアプローチは、バウンディングボックスとIDアノテーションの両方が利用可能な完全に教師付き設定に従っている。
本稿では,ボックスアノテーションのみを用いた弱教師付き人物検索について実験的に考察する。
- 参考スコア(独自算出の注目度): 155.46727990750227
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Person search has recently emerged as a challenging task that jointly
addresses pedestrian detection and person re-identification. Existing
approaches follow a fully supervised setting where both bounding box and
identity annotations are available. However, annotating identities is
labor-intensive, limiting the practicability and scalability of current
frameworks. This paper inventively considers weakly supervised person search
with only bounding box annotations. We proposed the first framework to address
this novel task, namely Context-Guided Person Search (CGPS), by investigating
three levels of context clues (i.e., detection, memory and scene) in
unconstrained natural images. The first two are employed to promote local and
global discriminative capabilities, while the latter enhances clustering
accuracy. Despite its simple design, our CGPS boosts the baseline model by 8.3%
in mAP on CUHK-SYSU. Surprisingly, it even achieves comparable performance to
two-step person search models, while displaying higher efficiency. Our code is
available at https://github.com/ljpadam/CGPS.
- Abstract(参考訳): 最近、歩行者検出と人物再特定を共同で行う課題として、人物検索が登場した。
既存のアプローチは、バウンディングボックスとIDアノテーションの両方が利用可能な完全に教師付き設定に従う。
しかし、アノテートIDは労働集約的であり、現在のフレームワークの実践性とスケーラビリティを制限する。
本稿では,境界付きボックスアノテーションのみを用いた弱い教師付き人物探索を考案的に検討する。
本研究では,この課題に対処する最初の枠組み,すなわちコンテキスト誘導人物探索(cgps)を提案し,制約のない自然画像における3段階のコンテキスト手がかり(検出,記憶,シーン)を調査した。
最初の2つは局所的およびグローバルな識別能力を促進するために使用され、後者はクラスタリングの精度を高める。
簡単な設計ではあるが、CGPSはCUHK-SYSUのmAPを8.3%向上させる。
驚くべきことに、2段階の人物検索モデルに匹敵する性能を実現し、効率も向上している。
私たちのコードはhttps://github.com/ljpadam/cgpsで利用可能です。
関連論文リスト
- Generalizable Person Search on Open-world User-Generated Video Content [93.72028298712118]
人物の検索は、大量の露骨なシーン画像から個人を検索する、困難な作業である。
既存の人検索アプリケーションは、ほとんどトレーニングされ、同じシナリオにデプロイされます。
本稿では,任意のシナリオにおける下流タスクを容易にするために,特徴レベルとデータレベルの両方の一般化可能なフレームワークを提案する。
論文 参考訳(メタデータ) (2023-10-16T04:59:50Z) - CGUA: Context-Guided and Unpaired-Assisted Weakly Supervised Person
Search [54.106662998673514]
本稿では,コンテキストガイドとアンペア支援(CGUA)を弱教師付き人物検索フレームワークとして導入する。
具体的には、クラスタリングプロセスにおけるコンテキスト情報を活用する新しいコンテキストガイドクラスタ(CGC)アルゴリズムを提案する。
本手法は,より多様なラベル付きデータを活用することにより,最先端の教師付き手法に匹敵する,あるいは優れた性能を実現する。
論文 参考訳(メタデータ) (2022-03-27T13:57:30Z) - Global-Local Context Network for Person Search [125.51080862575326]
パーソンサーチは、自然に切り刻まれた画像からクエリーを共同でローカライズし、識別することを目的としている。
我々は,対象人物を取り巻く環境情報を多様かつ局所的に利用し,それぞれがシーンとグループコンテキストを参照する。
本稿では,機能強化を目的としたグローバル・ローカル・コンテキスト・ネットワーク(GLCNet)を提案する。
論文 参考訳(メタデータ) (2021-12-05T07:38:53Z) - Efficient Person Search: An Anchor-Free Approach [86.45858994806471]
パーソンサーチは、クエリーの人物を、リアルで切り刻まれていない画像から、同時にローカライズし、識別することを目的としている。
この目標を達成するために、最先端モデルは通常、Faster R-CNNのような2段階検出器にre-idブランチを追加する。
本研究では,この課題に対処するためのアンカーフリーな手法を提案する。
論文 参考訳(メタデータ) (2021-09-01T07:01:33Z) - Anchor-Free Person Search [127.88668724345195]
パーソンサーチ(person search)は、クエリーの人物を同時にローカライズし、特定することを目的としている。
既存の作品の多くはfaster-rcnnのような2段検出器を採用しており、精度は高いが計算オーバーヘッドは高い。
この課題に効率的に取り組む最初のアンカーフリーフレームワークであるFeature-Aligned Person Search Network(AlignPS)を紹介します。
論文 参考訳(メタデータ) (2021-03-22T07:04:29Z) - A Convolutional Baseline for Person Re-Identification Using Vision and
Language Descriptions [24.794592610444514]
現実世界の監視シナリオでは、クエリされた人に関する視覚的な情報は頻繁に提供されない。
クロスエントロピー損失によって制御される2つのストリームディープ畳み込みニューラルネットワークフレームワークを示す。
学習した視覚表現は、単一のモダリティシステムと比較して、より堅牢で、検索時に22%向上する。
論文 参考訳(メタデータ) (2020-02-20T10:12:02Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。