論文の概要: CONQUER: Context-Aware Representation with Query Enhancement for Text-Based Person Search
- arxiv url: http://arxiv.org/abs/2601.18625v1
- Date: Mon, 26 Jan 2026 16:01:33 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-27 15:23:08.918974
- Title: CONQUER: Context-Aware Representation with Query Enhancement for Text-Based Person Search
- Title(参考訳): CONQUER: テキストに基づく人物検索のためのクエリ拡張によるコンテキスト認識表現
- Authors: Zequn Xie,
- Abstract要約: テキストベースパーソンサーチ(TBPS)は,大規模ギャラリーから自然言語による歩行者画像の検索を目的としている。
トレーニング中のクロスモーダルアライメントを強化し、推論時にクエリを適応的に精製することで、これらの課題に対処するために設計された2段階のフレームワークであるConQUERを紹介する。
CUHK-PEDES、ICFG-PEDES、RSTPReidの実験では、ConQUERはランク1の精度とmAPの両方で強いベースラインを一貫して上回っている。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Text-Based Person Search (TBPS) aims to retrieve pedestrian images from large galleries using natural language descriptions. This task, essential for public safety applications, is hindered by cross-modal discrepancies and ambiguous user queries. We introduce CONQUER, a two-stage framework designed to address these challenges by enhancing cross-modal alignment during training and adaptively refining queries at inference. During training, CONQUER employs multi-granularity encoding, complementary pair mining, and context-guided optimal matching based on Optimal Transport to learn robust embeddings. At inference, a plug-and-play query enhancement module refines vague or incomplete queries via anchor selection and attribute-driven enrichment, without requiring retraining of the backbone. Extensive experiments on CUHK-PEDES, ICFG-PEDES, and RSTPReid demonstrate that CONQUER consistently outperforms strong baselines in both Rank-1 accuracy and mAP, yielding notable improvements in cross-domain and incomplete-query scenarios. These results highlight CONQUER as a practical and effective solution for real-world TBPS deployment. Source code is available at https://github.com/zqxie77/CONQUER.
- Abstract(参考訳): テキストベースパーソンサーチ(TBPS)は,大規模ギャラリーから自然言語による歩行者画像の検索を目的としている。
このタスクは、公共の安全に不可欠なもので、クロスモーダルな不一致とあいまいなユーザクエリによって妨げられています。
トレーニング中のクロスモーダルアライメントを強化し、推論時にクエリを適応的に精製することで、これらの課題に対処するために設計された2段階のフレームワークであるConQUERを紹介する。
トレーニング中、CONQUERはマルチグラニュラリティエンコーディング、補完的なペアマイニング、および最適輸送に基づくコンテキスト誘導最適マッチングを使用して、堅牢な埋め込みを学習する。
推測では、プラグアンドプレイクエリ拡張モジュールは、バックボーンの再トレーニングを必要とせず、アンカーセレクションと属性駆動のエンリッチメントを通じて曖昧または不完全なクエリを洗練する。
CUHK-PEDES、ICFG-PEDES、RSTPReidの広範囲にわたる実験により、ConQUERはランク1の精度とmAPの両方において強いベースラインを一貫して上回り、クロスドメインおよび不完全クエリのシナリオにおいて顕著な改善をもたらすことを示した。
これらの結果から,ConQUERは実世界のTBPSデプロイメントにおいて,実用的で効果的なソリューションであることがわかった。
ソースコードはhttps://github.com/zqxie77/CONQUER.comで入手できる。
関連論文リスト
- Towards Context-aware Reasoning-enhanced Generative Searching in E-commerce [61.03081096959132]
そこで本稿では,複雑な状況下でのテキストバウンダリングを改善するための,文脈対応推論強化型生成検索フレームワークを提案する。
提案手法は,強力なベースラインに比べて優れた性能を示し,検索に基づく推薦の有効性を検証した。
論文 参考訳(メタデータ) (2025-10-19T16:46:11Z) - CART: A Generative Cross-Modal Retrieval Framework with Coarse-To-Fine Semantic Modeling [53.97609687516371]
クロスモーダル検索は、異なるモーダルデータの相互作用を通じて、クエリと意味的に関連するインスタンスを検索することを目的としている。
従来のソリューションでは、クエリと候補の間のスコアを明示的に計算するために、シングルトウワーまたはデュアルトウワーのフレームワークを使用している。
粗大なセマンティックモデリングに基づく生成的クロスモーダル検索フレームワーク(CART)を提案する。
論文 参考訳(メタデータ) (2024-06-25T12:47:04Z) - Text-Video Retrieval with Global-Local Semantic Consistent Learning [122.15339128463715]
我々は,シンプルで効果的なグローバル局所意味的一貫性学習(GLSCL)を提案する。
GLSCLは、テキストビデオ検索のためのモダリティをまたいだ潜在共有セマンティクスを活用する。
本手法はSOTAと同等の性能を実現し,計算コストの約220倍の高速化を実現している。
論文 参考訳(メタデータ) (2024-05-21T11:59:36Z) - Response Enhanced Semi-supervised Dialogue Query Generation [40.17161986495854]
ラベルのない会話でモデル性能を向上させるための半教師付き学習フレームワーク、SemiDQGを提案する。
まず、類似性に基づくクエリ選択手法を適用し、高品質なRA生成擬似クエリを選択する。
我々は、QPをさらに強化するためにREINFORCEアルゴリズムを採用し、RAによる報酬をきめ細かい訓練信号として利用する。
論文 参考訳(メタデータ) (2023-12-20T02:19:54Z) - Self-regulating Prompts: Foundational Model Adaptation without
Forgetting [112.66832145320434]
本稿では,PromptSRCと呼ばれる自己正規化フレームワークを提案する。
PromptSRCはタスク固有の汎用表現とタスクに依存しない汎用表現の両方に最適化するプロンプトを導く。
論文 参考訳(メタデータ) (2023-07-13T17:59:35Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。