論文の概要: Gallery Filter Network for Person Search
- arxiv url: http://arxiv.org/abs/2210.12903v2
- Date: Tue, 25 Oct 2022 20:30:30 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-27 14:41:27.652623
- Title: Gallery Filter Network for Person Search
- Title(参考訳): 人物探索のためのギャラリーフィルタネットワーク
- Authors: Lucas Jaffe, Avideh Zakhor
- Abstract要約: 本稿では,ギャラリー・フィルタ・ネットワーク(GFN, Gallery Filter Network)について述べる。
さらに,元のSeqNetモデルの改良と単純化を行う,SeqNeXt人探索モデルを開発した。
我々は,SeqNeXt+GFNの組み合わせが,標準的なPRWとCUHK-SYSUの人物探索データセットにおける他の最先端手法よりも大きな性能向上をもたらすことを示す。
- 参考スコア(独自算出の注目度): 0.6853165736531939
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In person search, we aim to localize a query person from one scene in other
gallery scenes. The cost of this search operation is dependent on the number of
gallery scenes, making it beneficial to reduce the pool of likely scenes. We
describe and demonstrate the Gallery Filter Network (GFN), a novel module which
can efficiently discard gallery scenes from the search process, and benefit
scoring for persons detected in remaining scenes. We show that the GFN is
robust under a range of different conditions by testing on different retrieval
sets, including cross-camera, occluded, and low-resolution scenarios. In
addition, we develop the base SeqNeXt person search model, which improves and
simplifies the original SeqNet model. We show that the SeqNeXt+GFN combination
yields significant performance gains over other state-of-the-art methods on the
standard PRW and CUHK-SYSU person search datasets. To aid experimentation for
this and other models, we provide standardized tooling for the data processing
and evaluation pipeline typically used for person search research.
- Abstract(参考訳): 個人検索では,他のギャラリーシーンの1シーンから質問者をローカライズすることを目的としている。
この検索操作のコストはギャラリーシーンの数に依存するため、可能性の高いシーンのプールを減らすのに有用である。
本稿では,ギャラリー・フィルタ・ネットワーク(GFN, Gallery Filter Network)について述べる。このモジュールは,ギャラリーのシーンを検索プロセスから効率的に取り除き,残りのシーンで検出された人物のスコアリングに役立てることができる。
gfnは, クロスカメラ, occluded, 低分解能のシナリオなど, さまざまな検索セットでテストすることにより, 様々な条件下で頑健であることを示す。
さらに,元のSeqNetモデルの改良と単純化を行う,SeqNeXt人探索モデルを開発した。
我々は,SeqNeXt+GFNの組み合わせが,標準的なPRWとCUHK-SYSUの人物探索データセットにおける他の最先端手法よりも大きな性能向上をもたらすことを示す。
このモデルや他のモデルの実験を支援するため、典型的には人物探索研究に使用されるデータ処理および評価パイプラインのための標準化されたツールを提供する。
関連論文リスト
- Generalizable Person Search on Open-world User-Generated Video Content [93.72028298712118]
人物の検索は、大量の露骨なシーン画像から個人を検索する、困難な作業である。
既存の人検索アプリケーションは、ほとんどトレーニングされ、同じシナリオにデプロイされます。
本稿では,任意のシナリオにおける下流タスクを容易にするために,特徴レベルとデータレベルの両方の一般化可能なフレームワークを提案する。
論文 参考訳(メタデータ) (2023-10-16T04:59:50Z) - Domain Adaptive Person Search via GAN-based Scene Synthesis for
Cross-scene Videos [6.604232520018979]
我々はGAN(Generative Adversarial Networks)を用いて監視ビデオからデータを合成する。
本稿では,人物検索タスクのための高品質な人物画像の合成が可能な,新しいGANベースのシーン合成モデルを提案する。
論文 参考訳(メタデータ) (2023-08-08T15:15:51Z) - ZeroSearch: Local Image Search from Text with Zero Shot Learning [0.0]
本稿では、ゼロショット学習を利用して、ユーザが提供するテキスト記述だけで画像クエリを作成するソリューションを提案する。
この論文の主な貢献は、事前訓練されたモデルを用いて画像から特徴を抽出するアルゴリズムの開発である。
アルゴリズムの出力は、類似性の下位順にソートされた画像のリストであり、ユーザーがより効率的に特定の画像を見つけるのに役立つ。
論文 参考訳(メタデータ) (2023-05-01T08:27:24Z) - Self-supervised Multi-view Disentanglement for Expansion of Visual
Collections [6.944742823561]
類似した画像に対する問い合わせが画像の集合から導出される設定について考察する。
ビジュアルサーチでは、類似度の測定は複数の軸に沿って行うか、スタイルや色などのビューで行うことができる。
本研究の目的は,複数のビューからの表現に対して計算された類似性を効果的に組み合わせた検索アルゴリズムを設計することである。
論文 参考訳(メタデータ) (2023-02-04T22:09:17Z) - RetrievalGuard: Provably Robust 1-Nearest Neighbor Image Retrieval [84.33752026418045]
本稿では, 対向性摂動に対して確実に頑健な1-nearest neighbor(NN)画像検索アルゴリズムであるRetrievalGuardを提案する。
このスムーズな検索モデルはリプシッツ定数を一定に保ち、従って検索スコアは$ell$逆転摂動に不変であることを示す。
論文 参考訳(メタデータ) (2022-06-17T16:50:50Z) - Global-Local Context Network for Person Search [125.51080862575326]
パーソンサーチは、自然に切り刻まれた画像からクエリーを共同でローカライズし、識別することを目的としている。
我々は,対象人物を取り巻く環境情報を多様かつ局所的に利用し,それぞれがシーンとグループコンテキストを参照する。
本稿では,機能強化を目的としたグローバル・ローカル・コンテキスト・ネットワーク(GLCNet)を提案する。
論文 参考訳(メタデータ) (2021-12-05T07:38:53Z) - Combined Depth Space based Architecture Search For Person
Re-identification [70.86236888223569]
個人再識別(ReID)のための軽量で適切なネットワークの設計を目指しています。
本研究では,CDNetと呼ばれる効率的なネットワークアーキテクチャの探索に基づく,複合深さ空間(Componed Depth Space, CDS)と呼ばれる新しい検索空間を提案する。
そこで我々はTop-k Sample Search戦略という低コストの検索戦略を提案し、検索空間をフル活用し、局所的な最適結果のトラップを避ける。
論文 参考訳(メタデータ) (2021-04-09T02:40:01Z) - ZSCRGAN: A GAN-based Expectation Maximization Model for Zero-Shot
Retrieval of Images from Textual Descriptions [13.15755441853131]
画像検索のためのゼロショットテキストのための新しいGANモデルを提案する。
提案モデルは期待最大化フレームワークを用いて訓練される。
複数のベンチマークデータセットの実験により,提案したモデルは,画像検索モデルに対して,最先端のゼロショットテキストよりも快適に優れていることが示された。
論文 参考訳(メタデータ) (2020-07-23T18:50:03Z) - Sequential Gallery for Interactive Visual Design Optimization [51.52002870143971]
本稿では,適切なパラメータ集合を効率的に見つけることができるループ最適化手法を提案する。
また、アダプティブグリッドビューに配置された2次元部分空間にオプションを提供するギャラリーベースのインタフェースも提案する。
合成関数を用いた実験により, 逐次平面探索は, ベースラインよりも少ないイテレーションで満足な解を見出すことができた。
論文 参考訳(メタデータ) (2020-05-08T15:24:35Z) - Robust Partial Matching for Person Search in the Wild [70.6661871706788]
本稿では、人物検出と再同定のためのAPNet(Align-to-Part Network)を提案する。
APNetは、推定された全体体領域をカバーする境界ボックスを検出する。
CUHK-SYSUやPRWといった既存の人物検索ベンチマーク上での競合性能を実現している。
論文 参考訳(メタデータ) (2020-04-20T14:21:03Z) - Deep-n-Cheap: An Automated Search Framework for Low Complexity Deep
Learning [3.479254848034425]
私たちはディープラーニングモデルを探すためのオープンソースのAutoMLフレームワークであるDeep-n-Cheapを紹介します。
私たちのフレームワークは、ベンチマークとカスタムデータセットの両方へのデプロイをターゲットとしています。
Deep-n-Cheapには、トレーニング時間やパラメータ数とパフォーマンスをトレードオフする、ユーザ管理可能な複雑性ペナルティが含まれている。
論文 参考訳(メタデータ) (2020-03-27T13:00:21Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。