論文の概要: SAS-VPReID: A Scale-Adaptive Framework with Shape Priors for Video-based Person Re-Identification at Extreme Far Distances
- arxiv url: http://arxiv.org/abs/2601.05535v1
- Date: Fri, 09 Jan 2026 05:22:58 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-12 17:41:49.846428
- Title: SAS-VPReID: A Scale-Adaptive Framework with Shape Priors for Video-based Person Re-Identification at Extreme Far Distances
- Title(参考訳): SAS-VPReID:極遠距離での映像に基づく人物再識別のための形状優先のスケール適応型フレームワーク
- Authors: Qiwei Yang, Pingping Zhang, Yuhao Wang, Zijing Gong,
- Abstract要約: ビデオベースのPerson Re-IDentification(VPReID)は、重複しないカメラで撮影したビデオから同じ人物を回収することを目的としている。
極端に離れたところでは、VPReIDは高分解能劣化、劇的な視点の変化、不可避な外観ノイズのために非常に困難である。
本稿では,SAS-VPReIDと命名されたVPReIDのための形状優先型スケール適応フレームワークを提案する。
- 参考スコア(独自算出の注目度): 30.963383617202755
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Video-based Person Re-IDentification (VPReID) aims to retrieve the same person from videos captured by non-overlapping cameras. At extreme far distances, VPReID is highly challenging due to severe resolution degradation, drastic viewpoint variation and inevitable appearance noise. To address these issues, we propose a Scale-Adaptive framework with Shape Priors for VPReID, named SAS-VPReID. The framework is built upon three complementary modules. First, we deploy a Memory-Enhanced Visual Backbone (MEVB) to extract discriminative feature representations, which leverages the CLIP vision encoder and multi-proxy memory. Second, we propose a Multi-Granularity Temporal Modeling (MGTM) to construct sequences at multiple temporal granularities and adaptively emphasize motion cues across scales. Third, we incorporate Prior-Regularized Shape Dynamics (PRSD) to capture body structure dynamics. With these modules, our framework can obtain more discriminative feature representations. Experiments on the VReID-XFD benchmark demonstrate the effectiveness of each module and our final framework ranks the first on the VReID-XFD challenge leaderboard. The source code is available at https://github.com/YangQiWei3/SAS-VPReID.
- Abstract(参考訳): ビデオベースのPerson Re-IDentification(VPReID)は、重複しないカメラで撮影したビデオから同じ人物を回収することを目的としている。
極端に離れたところでは、VPReIDは高分解能劣化、劇的な視点の変化、不可避な外観ノイズのために非常に困難である。
これらの問題に対処するため,我々はSAS-VPReIDというVPReIDのための形状優先型スケール適応フレームワークを提案する。
このフレームワークは3つの補完モジュール上に構築されている。
まず、メモリ拡張ビジュアルバックボーン(MEVB)をデプロイし、CLIPビジョンエンコーダとマルチプロキシメモリを利用する識別的特徴表現を抽出する。
第二に、複数の時間的粒度でシーケンスを構築し、スケールをまたいだ動きキューを適応的に強調するために、MGTM(Multi-Granularity Temporal Modeling)を提案する。
第3に, プリエント・レギュラライズド・シェイプ・ダイナミクス(PRSD)を導入し, 身体構造のダイナミクスを捉える。
これらのモジュールにより、我々のフレームワークはより差別的な特徴表現を得ることができる。
VReID-XFDベンチマークの実験では、各モジュールの有効性が示され、最終フレームワークはVReID-XFDチャレンジリーダーボードにランクインした。
ソースコードはhttps://github.com/YangQiWei3/SAS-VPReIDで入手できる。
関連論文リスト
- BasicAVSR: Arbitrary-Scale Video Super-Resolution via Image Priors and Enhanced Motion Compensation [70.27358326228399]
任意スケールビデオ超解像(AVSR)のためのベーシックAVSRを提案する。
AVSRは、ビデオフレームの解像度、潜在的に様々なスケーリング要素を強化することを目的としている。
超高分解能, 一般化能力, 推論速度の点で, BasicAVSR は既存手法よりも優れていた。
論文 参考訳(メタデータ) (2025-10-30T05:08:45Z) - SD-ReID: View-aware Stable Diffusion for Aerial-Ground Person Re-Identification [74.36139886192495]
本稿では,AG-ReID のための SD-ReID という新しい生成フレームワークを提案する。
まず、ViTベースのモデルを用いて人物表現を抽出し、個人性や視認性を含む制御可能な条件を抽出する。
次に、安定拡散(SD)モデルを微調整し、これらの制御可能な条件によって導かれる人物表現を強化する。
論文 参考訳(メタデータ) (2025-04-13T12:44:50Z) - AG-VPReID: A Challenging Large-Scale Benchmark for Aerial-Ground Video-based Person Re-Identification [39.350429734981184]
我々は,地上ビデオに基づく人物識別(ReID)のための大規模データセット AG-VPReID を紹介する。
このデータセットは6,632人の被験者、32,321のトラックレット、960万フレーム以上をドローン(高度15-120m)、CCTV、ウェアラブルカメラで捉えている。
本稿では,3つの補完ストリームからなるエンドツーエンドフレームワーク AG-VPReID-Net を提案する。
論文 参考訳(メタデータ) (2025-03-11T07:38:01Z) - Arbitrary-Scale Video Super-Resolution with Structural and Textural Priors [80.92195378575671]
Arbitraスケール超解像(AVSR)の強いベースラインについて述べる。
次に、事前学習したVGGネットワークから計算したマルチスケールの構造とテクスチャをベースラインに組み込むことにより、ST-AVSRを導入する。
総合的な実験により、ST-AVSRは最先端技術よりも超解像品質、一般化能力、推論速度を大幅に改善することが示された。
論文 参考訳(メタデータ) (2024-07-13T15:27:39Z) - HAT: Hierarchical Aggregation Transformers for Person Re-identification [87.02828084991062]
我々は,CNNとトランスフォーマーの両方の利点を,高性能な画像ベース人物Re-IDに適用する。
作業は、画像ベースのRe-IDのためのCNNとTransformerの両方の利点を初めて活用する。
論文 参考訳(メタデータ) (2021-07-13T09:34:54Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。