論文の概要: Specialized Re-Ranking: A Novel Retrieval-Verification Framework for
Cloth Changing Person Re-Identification
- arxiv url: http://arxiv.org/abs/2210.03592v1
- Date: Fri, 7 Oct 2022 14:47:28 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-10 14:28:52.976115
- Title: Specialized Re-Ranking: A Novel Retrieval-Verification Framework for
Cloth Changing Person Re-Identification
- Title(参考訳): 特化再認識: 着替え者の再識別のための新しい検索検証フレームワーク
- Authors: Renjie Zhang, Yu Fang, Huaxin Song, Fangbin Wan, Yanwei Fu, Hirokazu
Kato, and Yang Wu
- Abstract要約: Re-IDは通常のRe-IDや生体認証技術よりもセキュリティの高い複雑なシナリオで動作することができる。
類似画像を扱う新しい検索検証フレームワークを提案する。
- 参考スコア(独自算出の注目度): 36.4001616893874
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Cloth changing person re-identification(Re-ID) can work under more
complicated scenarios with higher security than normal Re-ID and biometric
techniques and is therefore extremely valuable in applications. Meanwhile,
higher flexibility in appearance always leads to more similar-looking confusing
images, which is the weakness of the widely used retrieval methods. In this
work, we shed light on how to handle these similar images. Specifically, we
propose a novel retrieval-verification framework. Given an image, the retrieval
module can search for similar images quickly. Our proposed verification network
will then compare the input image and the candidate images by contrasting those
local details and give a similarity score. An innovative ranking strategy is
also introduced to take a good balance between retrieval and verification
results. Comprehensive experiments are conducted to show the effectiveness of
our framework and its capability in improving the state-of-the-art methods
remarkably on both synthetic and realistic datasets.
- Abstract(参考訳): 衣服変更者再識別(Re-ID)は、通常のRe-IDや生体認証技術よりも高いセキュリティを持つ複雑なシナリオの下で機能するので、アプリケーションでは極めて有用である。
一方、外観の柔軟性が高まると、よりよく似た画像が現れるため、広く使われている検索方法の弱点となる。
この研究で私たちは、このような画像を扱う方法に光を当てました。
具体的には,新しい検索検証フレームワークを提案する。
画像が与えられた場合、検索モジュールは類似した画像を素早く検索できる。
提案する検証ネットワークは,入力画像と候補画像を比較し,その局所的詳細を比較し,類似度スコアを与える。
検索と検証結果のバランスを取るために,革新的なランキング戦略も導入された。
総合的な実験を行い,合成データセットと現実的なデータセットの両方において,最先端の手法を改善するためのフレームワークの有効性と能力を示す。
関連論文リスト
- Re-Imagen: Retrieval-Augmented Text-to-Image Generator [58.60472701831404]
検索用テキスト・ツー・イメージ・ジェネレータ(再画像)
検索用テキスト・ツー・イメージ・ジェネレータ(再画像)
論文 参考訳(メタデータ) (2022-09-29T00:57:28Z) - Adversarial Learning of Hard Positives for Place Recognition [5.142439069733352]
本稿では,画像検索ネットワークをトレーニングするためのハードポジティクスの作成を指導する逆法を提案する。
提案手法は,Pitts250および東京24/7ベンチマークにおける最先端のリコールを実現する。
論文 参考訳(メタデータ) (2022-05-08T13:54:03Z) - Where Does the Performance Improvement Come From? - A Reproducibility
Concern about Image-Text Retrieval [85.03655458677295]
画像テキスト検索は、情報検索分野において、徐々に主要な研究方向になりつつある。
まず、画像テキスト検索タスクに焦点が当てられている理由と関連性について検討する。
本研究では,事前学習と非事前学習による検索モデルの再現の諸側面を解析する。
論文 参考訳(メタデータ) (2022-03-08T05:01:43Z) - Contextual Similarity Aggregation with Self-attention for Visual
Re-ranking [96.55393026011811]
本稿では,自己注意を伴う文脈的類似性集約による視覚的再ランク付け手法を提案する。
提案手法の汎用性と有効性を示すため,4つのベンチマークデータセットの総合的な実験を行った。
論文 参考訳(メタデータ) (2021-10-26T06:20:31Z) - Region-level Active Learning for Cluttered Scenes [60.93811392293329]
本稿では,従来の画像レベルのアプローチとオブジェクトレベルのアプローチを一般化した領域レベルのアプローチに仮定する新たな戦略を提案する。
その結果,本手法はラベル付けの労力を大幅に削減し,クラス不均衡や散らかったシーンを生かしたリアルなデータに対する希少なオブジェクト検索を改善することが示唆された。
論文 参考訳(メタデータ) (2021-08-20T14:02:38Z) - Similarity Guided Deep Face Image Retrieval [21.99902461562925]
類似性誘導ハッシュ法(SGH)は、自己とペアの相似性を同時に考慮する。
SGHは大規模な顔画像データセット上で最先端の検索性能を提供する。
論文 参考訳(メタデータ) (2021-07-11T11:32:04Z) - Unifying Remote Sensing Image Retrieval and Classification with Robust
Fine-tuning [3.6526118822907594]
新しい大規模トレーニングおよびテストデータセットであるSF300で、リモートセンシングイメージの検索と分類を統一することを目指しています。
本研究では,ImageNetの事前学習ベースラインと比較して,9つのデータセットの検索性能と分類性能を体系的に向上させることを示す。
論文 参考訳(メタデータ) (2021-02-26T11:01:30Z) - From A Glance to "Gotcha": Interactive Facial Image Retrieval with
Progressive Relevance Feedback [72.29919762941029]
本稿では,目撃者から徐々にフィードバックを得て顔画像を取得するためのエンドツーエンドフレームワークを提案する。
追加のアノテーションを必要とせずに、私たちのモデルは少しのレスポンスの努力を犠牲にして適用できます。
論文 参考訳(メタデータ) (2020-07-30T18:46:25Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。