論文の概要: Video Temporal Relationship Mining for Data-Efficient Person
Re-identification
- arxiv url: http://arxiv.org/abs/2110.00549v1
- Date: Fri, 1 Oct 2021 17:25:02 GMT
- ステータス: 処理完了
- システム内更新日: 2021-10-04 14:33:23.614122
- Title: Video Temporal Relationship Mining for Data-Efficient Person
Re-identification
- Title(参考訳): データ効率の良い人物再識別のためのビデオ時間関係マイニング
- Authors: Siyu Chen, Dengjie Li, Lishuai Gao, Fan Liang, Wei Zhang, Lin Ma
- Abstract要約: 本論文はICCV 2021 VIPriors Re-identification Challengeへの提出に関する技術的報告である。
連続フレームと同じアイデンティティのクエリとギャラリーイメージをビデオシーケンスで扱う。
本稿では,ビデオ時間的関係マイニングのための新しいポストプロセッシング戦略を提案する。
- 参考スコア(独自算出の注目度): 17.087170998346423
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: This paper is a technical report to our submission to the ICCV 2021 VIPriors
Re-identification Challenge. In order to make full use of the visual inductive
priors of the data, we treat the query and gallery images of the same identity
as continuous frames in a video sequence. And we propose one novel
post-processing strategy for video temporal relationship mining, which not only
calculates the distance matrix between query and gallery images, but also the
matrix between gallery images. The initial query image is used to retrieve the
most similar image from the gallery, then the retrieved image is treated as a
new query to retrieve its most similar image from the gallery. By iteratively
searching for the closest image, we can achieve accurate image retrieval and
finally obtain a robust retrieval sequence.
- Abstract(参考訳): 本論文はICCV 2021 VIPriors Re-identification Challengeへの提出に関する技術的報告である。
データの視覚的インダクティブプリエントを最大限に活用するために,ビデオシーケンス内の連続フレームと同じアイデンティティのクエリとギャラリーイメージを扱います。
また,検索画像とギャラリー画像間の距離行列だけでなく,ギャラリー画像間の距離行列も計算する,ビデオ時間関係マイニングのための新しいポストプロセッシング手法を提案する。
最初のクエリイメージはギャラリーから最も類似したイメージを取得するために使用され、その後、検索されたイメージは新しいクエリとして扱われ、ギャラリーから最も類似したイメージを取得する。
近い画像の探索を反復的に行うことで、正確な画像検索を実現し、最終的にはロバストな検索シーケンスを得る。
関連論文リスト
- End-to-end Knowledge Retrieval with Multi-modal Queries [50.01264794081951]
ReMuQは、テキストと画像のクエリからコンテンツを統合することで、大規模なコーパスから知識を取得するシステムを必要とする。
本稿では,入力テキストや画像を直接処理し,関連する知識をエンドツーエンドで検索する検索モデルReViz'を提案する。
ゼロショット設定下での2つのデータセットの検索において,優れた性能を示す。
論文 参考訳(メタデータ) (2023-06-01T08:04:12Z) - If At First You Don't Succeed: Test Time Re-ranking for Zero-shot,
Cross-domain Retrieval [24.7196877149196]
我々はゼロショット・クロスドメイン画像検索の分野に2つの重要な貢献をしている。
ひとつは、有意義な共有視覚的特徴のないクエリ・ギャラリペアを可能にする、テスト時間の再ランク付け手順である。
2つ目は、訓練時のクロスアテンションと知識蒸留を利用して、1枚の画像からテスト時にクロスアテンションのような特徴を抽出することである。
論文 参考訳(メタデータ) (2023-03-30T20:52:08Z) - Self-supervised Multi-view Disentanglement for Expansion of Visual
Collections [6.944742823561]
類似した画像に対する問い合わせが画像の集合から導出される設定について考察する。
ビジュアルサーチでは、類似度の測定は複数の軸に沿って行うか、スタイルや色などのビューで行うことができる。
本研究の目的は,複数のビューからの表現に対して計算された類似性を効果的に組み合わせた検索アルゴリズムを設計することである。
論文 参考訳(メタデータ) (2023-02-04T22:09:17Z) - Progressive Learning for Image Retrieval with Hybrid-Modality Queries [48.79599320198615]
ハイブリッドモダリティクエリによる画像検索(CTI-IR)
我々は、CTI-IRタスクを3段階の学習問題に分解し、ハイブリッドモダリティクエリを用いて画像検索のための複雑な知識を段階的に学習する。
提案モデルは,Fashion-IQおよびShoesベンチマークデータセットにおいて,Recall@K平均の最先端手法を24.9%,9.5%向上させる。
論文 参考訳(メタデータ) (2022-04-24T08:10:06Z) - ARTEMIS: Attention-based Retrieval with Text-Explicit Matching and
Implicit Similarity [16.550790981646276]
現在のアプローチでは、クエリの2つの要素のそれぞれの特徴をひとつの表現にまとめています。
本研究の目的は,テキスト・ツー・イメージ検索と画像・ツー・イメージ検索という,慣れ親しんだ2つのフレームワークのプリズムを通じてタスクに新たな光を当てることである。
論文 参考訳(メタデータ) (2022-03-15T17:29:20Z) - Contextual Similarity Aggregation with Self-attention for Visual
Re-ranking [96.55393026011811]
本稿では,自己注意を伴う文脈的類似性集約による視覚的再ランク付け手法を提案する。
提案手法の汎用性と有効性を示すため,4つのベンチマークデータセットの総合的な実験を行った。
論文 参考訳(メタデータ) (2021-10-26T06:20:31Z) - Few-Shot Segmentation with Global and Local Contrastive Learning [51.677179037590356]
提案するグローバルローカルコントラスト学習を用いて,ラベルのない画像からクエリ情報を学習するための先行抽出器を提案する。
クエリー画像の以前の領域マップを生成し、オブジェクトの位置を判断し、サポート機能とのクロスインタラクションを行うためのガイダンスを作成する。
ベルとホイッスルを使わずに、提案手法は、数発のセグメンテーションタスクに対して、新しい最先端のパフォーマンスを実現する。
論文 参考訳(メタデータ) (2021-08-11T15:52:22Z) - Content-based Image Retrieval and the Semantic Gap in the Deep Learning
Era [9.59805804476193]
コンテンツに基づく画像検索は、特に同じ物体の画像を検索する作業において、過去10年間に驚くべき進歩を遂げてきた。
インスタンス検索の最近の進歩は、より一般的な画像検索のシナリオに移行していますか?
まず、インスタンス検索の最も関連性の高いマイルストーンの概要を概説し、その後、セマンティック画像検索タスクに適用し、より洗練されていない、より汎用的な手法よりも劣る結果が得られた。
セマンティック画像検索のさらなる進歩の鍵となる問題は、標準化されたタスク定義と適切なベンチマークデータセットの欠如にあると結論付けている。
論文 参考訳(メタデータ) (2020-11-12T17:00:08Z) - Semantically Tied Paired Cycle Consistency for Any-Shot Sketch-based
Image Retrieval [55.29233996427243]
ローショットスケッチに基づく画像検索はコンピュータビジョンの新たな課題である。
本稿では,ゼロショットおよび少数ショットのスケッチベース画像検索(SBIR)タスクについて述べる。
これらの課題を解決するために,SEM-PCYC(SEM-PCYC)を提案する。
以上の結果から,Sketchy,TU-Berlin,QuickDrawのデータセットを拡張したバージョンでは,最先端の撮影性能が大幅に向上した。
論文 参考訳(メタデータ) (2020-06-20T22:43:53Z) - Compact Deep Aggregation for Set Retrieval [87.52470995031997]
画像の大規模データセットから複数の顔を含む画像を取得することに焦点を当てる。
ここでは、セットは各画像の顔記述子で構成され、複数のIDに対するクエリが与えられた後、すべてのIDを含む画像を取得することが目標である。
このコンパクトディスクリプタは,画像毎に最大2面まで識別性の低下が最小限に抑えられ,その後徐々に劣化することを示す。
論文 参考訳(メタデータ) (2020-03-26T08:43:15Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。