論文の概要: SeCap: Self-Calibrating and Adaptive Prompts for Cross-view Person Re-Identification in Aerial-Ground Networks
- arxiv url: http://arxiv.org/abs/2503.06965v1
- Date: Mon, 10 Mar 2025 06:23:35 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-03-11 15:48:13.078126
- Title: SeCap: Self-Calibrating and Adaptive Prompts for Cross-view Person Re-Identification in Aerial-Ground Networks
- Title(参考訳): SeCap: 空域ネットワークにおけるクロスビュー人物再同定のための自己校正・適応型プロンプト
- Authors: Shining Wang, Yunlong Wang, Ruiqi Wu, Bingliang Jiao, Wenxuan Wang, Peng Wang,
- Abstract要約: AGPReIDタスクのためのSeCap(Se-Calibrating and Adaptive Prompt)メソッドの設計と実装を行う。
SeCap は Prompt Re-calibration Module (PRM) に依存しており、入力に基づいてプロンプトを適応的に再校正する。
さらに,LAGPeRとG2APS-ReIDの2つの実世界の空中人物再収集データセットをコントリビュートする。
- 参考スコア(独自算出の注目度): 24.394237582548918
- License:
- Abstract: When discussing the Aerial-Ground Person Re-identification (AGPReID) task, we face the main challenge of the significant appearance variations caused by different viewpoints, making identity matching difficult. To address this issue, previous methods attempt to reduce the differences between viewpoints by critical attributes and decoupling the viewpoints. While these methods can mitigate viewpoint differences to some extent, they still face two main issues: (1) difficulty in handling viewpoint diversity and (2) neglect of the contribution of local features. To effectively address these challenges, we design and implement the Self-Calibrating and Adaptive Prompt (SeCap) method for the AGPReID task. The core of this framework relies on the Prompt Re-calibration Module (PRM), which adaptively re-calibrates prompts based on the input. Combined with the Local Feature Refinement Module (LFRM), SeCap can extract view-invariant features from local features for AGPReID. Meanwhile, given the current scarcity of datasets in the AGPReID field, we further contribute two real-world Large-scale Aerial-Ground Person Re-Identification datasets, LAGPeR and G2APS-ReID. The former is collected and annotated by us independently, covering $4,231$ unique identities and containing $63,841$ high-quality images; the latter is reconstructed from the person search dataset G2APS. Through extensive experiments on AGPReID datasets, we demonstrate that SeCap is a feasible and effective solution for the AGPReID task. The datasets and source code available on https://github.com/wangshining681/SeCap-AGPReID.
- Abstract(参考訳): AGPReID(Aerial-Ground Person Re-identification, AGPReID)の課題について論じる際には、異なる視点から生じる顕著な外見の変化の主な課題に直面し、同一性マッチングを困難にしている。
この問題に対処するため、従来の手法では、批判的属性によって視点の違いを減らし、視点を分離しようと試みていた。
これらの手法は視点の違いをある程度軽減できるが,(1)視点の多様性を扱うのが困難であること,(2)局所的な特徴の寄与を無視すること,の2つの問題に直面している。
これらの課題を効果的に解決するために、AGPReIDタスクのためのSeCap(Se-Calibrating and Adaptive Prompt)メソッドを設計、実装する。
このフレームワークのコアは、入力に基づいてプロンプトを適応的に再校正するPrompt Re-calibration Module (PRM)に依存している。
Local Feature Refinement Module (LFRM)と組み合わせて、SeCapはAGPReIDのローカル機能からビュー不変の機能を抽出できる。
一方、現在のAGPReID領域におけるデータセットの不足を考えると、我々はさらに2つの実世界の大規模空中人物再識別データセットであるLAGPeRとG2APS-ReIDに貢献する。
前者は独立して収集・注釈され、ユニークなIDは4,231ドル、高品質の画像は63,841ドル、後者は人物検索データセットG2APSから再構成される。
AGPReIDデータセットに関する広範な実験を通じて、SeCapがAGPReIDタスクの実現可能かつ効果的なソリューションであることを実証した。
データセットとソースコードはhttps://github.com/wangshining681/SeCap-AGPReIDで公開されている。
関連論文リスト
- Disentangled Representations for Short-Term and Long-Term Person Re-Identification [33.76874948187976]
アイデンティティシャッフルGAN(Identity shuffle GAN:IS-GAN)と呼ばれる新たな生成対向ネットワークを提案する。
それは、アイデンティティシャッフル技術によって、個人画像からアイデンティティ関連および非関連の特徴を解き放つ。
実験により,IS-GANの有効性が検証され,標準reIDベンチマークにおける最先端性能が示された。
論文 参考訳(メタデータ) (2024-09-09T02:09:49Z) - PartFormer: Awakening Latent Diverse Representation from Vision Transformer for Object Re-Identification [73.64560354556498]
Vision Transformer (ViT) は、ほとんどの異なる訓練データ領域に過度に適合する傾向にあり、その一般化性と全体的対象特徴への注意が制限される。
本稿では、オブジェクトRe-IDタスクの制限を克服するために設計された、ViTの革新的な適応であるPartFormerを紹介する。
我々のフレームワークは、最も困難なMSMT17データセットにおいて、最先端の2.4%のmAPスコアを著しく上回る。
論文 参考訳(メタデータ) (2024-08-29T16:31:05Z) - Keypoint Promptable Re-Identification [76.31113049256375]
Occluded Person Re-Identification (ReID) は、その外見に基づいて隠蔽された個人をマッチングするメトリクス学習タスクである。
本稿では、入力バウンディングボックスを意味キーポイントの集合で明示的に補完する新しいReID問題の定式化であるKeypoint Promptable ReID(KPR)を紹介する。
我々は4つの人気のあるReIDベンチマークのためのカスタムキーポイントラベルをリリースした。人物検索の実験だけでなく、ポーズトラッキングの実験も、我々の手法が従来の最先端手法を体系的に超越していることを示す。
論文 参考訳(メタデータ) (2024-07-25T15:20:58Z) - View-decoupled Transformer for Person Re-identification under Aerial-ground Camera Network [87.36616083812058]
地上人物再識別のための簡易かつ効果的なフレームワークとして,ビューデカップリングトランス (VDT) が提案されている。
2つの主要なコンポーネントは、ビュー関連とビュー非関連の機能を切り離すためにVDTで設計されている。
さらに,5/8の空中/地上カメラ,5,000のアイデンティティ,108,563のイメージからなる大規模AGPReIDデータセットCARGOをコントリビュートした。
論文 参考訳(メタデータ) (2024-03-21T16:08:21Z) - Source-Guided Similarity Preservation for Online Person
Re-Identification [3.655597435084387]
Online Unsupervised Domain Adaptation (OUDA)は、よくアノテーションされたソースドメインデータセットでトレーニングされたモデルを、データストリームとして観測されたターゲットドメインに継続的に適応させるタスクである。
OUDAでは、人物Re-IDモデルは、破滅的な忘れとドメインシフトという、2つの大きな課題に直面しています。
本稿では、これら2つの問題を緩和する新しいソース誘導類似性保存(S2P)フレームワークを提案する。
論文 参考訳(メタデータ) (2024-02-23T09:07:20Z) - AG-ReID.v2: Bridging Aerial and Ground Views for Person Re-identification [39.58286453178339]
空中人物再識別(Re-ID)は、コンピュータビジョンにおいて固有の課題を提示する。
AG-ReID.v2は、空中および地上の混合シナリオにおいて、人物Re-ID用に特別に設計されたデータセットである。
このデータセットは、1,615人のユニークな個人の100,502枚の画像で構成され、それぞれに一致するIDと15のソフト属性ラベルが付加されている。
論文 参考訳(メタデータ) (2024-01-05T04:53:33Z) - Learning Feature Recovery Transformer for Occluded Person
Re-identification [71.18476220969647]
本稿では,FRT(Feature Recovery Transformer)と呼ばれる2つの課題を同時に解決する手法を提案する。
特徴マッチング時のノイズの干渉を低減するため,両画像に現れる可視領域に着目し,類似性を計算するための可視グラフを開発した。
2つ目の課題は、グラフの類似性に基づいて、各クエリ画像に対して、ギャラリー内の$k$-nearestの隣人の特徴セットを利用して、完全な特徴を復元するリカバリトランスフォーマを提案することである。
論文 参考訳(メタデータ) (2023-01-05T02:36:16Z) - Dynamic Prototype Mask for Occluded Person Re-Identification [88.7782299372656]
既存の手法では、目に見える部分を識別するために、余分なネットワークによって提供される身体の手がかりを利用することで、この問題に対処している。
2つの自己明快な事前知識に基づく新しい動的プロトタイプマスク(DPM)を提案する。
この条件下では、隠蔽された表現は、選択された部分空間において自然にうまく整列することができる。
論文 参考訳(メタデータ) (2022-07-19T03:31:13Z) - Face Verification with Challenging Imposters and Diversified
Demographics [0.0]
顔認証は、同一または異なる同一の顔を含む、本物と偽の顔のペアを区別することを目的としている。
本稿では、性別、国、年齢に関連するメタデータを含む$FaVCI2D$データセットを紹介し、その結果のきめ細かい分析を容易にする。
既存のデータセットで100%近いパフォーマンスを提供する最先端のディープモデルによる実験は、$FaVCI2D$の大幅なパフォーマンス低下を示している。
論文 参考訳(メタデータ) (2021-10-16T21:34:59Z) - Camera-aware Proxies for Unsupervised Person Re-Identification [60.26031011794513]
本稿では、アノテーションを必要としない純粋に教師なしの人物識別(Re-ID)問題に取り組む。
各クラスタを複数のプロキシに分割し、それぞれのプロキシが同じカメラからのインスタンスを表すことを提案する。
カメラ認識プロキシに基づいて、カメラ内およびカメラ間コントラスト学習コンポーネントをre-idモデル用に設計する。
論文 参考訳(メタデータ) (2020-12-19T12:37:04Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。