論文の概要: Clothes-Changing Person Re-identification Based On Skeleton Dynamics
- arxiv url: http://arxiv.org/abs/2503.10759v1
- Date: Thu, 13 Mar 2025 18:00:02 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-03-17 13:07:42.104199
- Title: Clothes-Changing Person Re-identification Based On Skeleton Dynamics
- Title(参考訳): 骨格ダイナミクスに基づく衣服交換者の再識別
- Authors: Asaf Joseph, Shmuel Peleg,
- Abstract要約: Clothes-Changing ReIDは、さまざまな時間や場所で撮影された異なるビデオ間で同じ個人を認識することを目的としている。
伝統的なReID法は外観に大きく依存することが多く、衣服が変わると精度が低下する。
本稿では,骨格データのみを使用し,外観特徴を使用できないClothes-Changing ReID法を提案する。
- 参考スコア(独自算出の注目度): 3.79830302036482
- License:
- Abstract: Clothes-Changing Person Re-Identification (ReID) aims to recognize the same individual across different videos captured at various times and locations. This task is particularly challenging due to changes in appearance, such as clothing, hairstyle, and accessories. We propose a Clothes-Changing ReID method that uses only skeleton data and does not use appearance features. Traditional ReID methods often depend on appearance features, leading to decreased accuracy when clothing changes. Our approach utilizes a spatio-temporal Graph Convolution Network (GCN) encoder to generate a skeleton-based descriptor for each individual. During testing, we improve accuracy by aggregating predictions from multiple segments of a video clip. Evaluated on the CCVID dataset with several different pose estimation models, our method achieves state-of-the-art performance, offering a robust and efficient solution for Clothes-Changing ReID.
- Abstract(参考訳): ReID(Rethes-Changing Person Re-Identification)は、さまざまな時間や場所で撮影された異なるビデオ間で同じ個人を認識することを目的としている。
この作業は、衣服、髪型、アクセサリーなどの外観の変化のために特に困難である。
本稿では,骨格データのみを使用し,外観特徴を使用できないClothes-Changing ReID法を提案する。
伝統的なReID法は外観に大きく依存することが多く、衣服が変わると精度が低下する。
提案手法では,時空間グラフ畳み込みネットワーク(GCN)エンコーダを用いて,各個人にスケルトンベースの記述子を生成する。
テスト中、ビデオクリップの複数のセグメントから予測を集約することで精度を向上させる。
いくつかの異なるポーズ推定モデルを用いてCCVIDデータセットを評価した結果,提案手法は最先端性能を実現し,ロバストで効率的なClothes-Changing ReIDを提供する。
関連論文リスト
- Synergy and Diversity in CLIP: Enhancing Performance Through Adaptive Backbone Ensembling [58.50618448027103]
コントラスト言語-画像事前学習(CLIP)は画像表現学習において顕著な手法である。
本稿では,CLIPを訓練した視覚バックボーンの違いについて検討する。
方法によって、最高の単一のバックボーンよりも39.1%の精度が著しく向上する。
論文 参考訳(メタデータ) (2024-05-27T12:59:35Z) - CCPA: Long-term Person Re-Identification via Contrastive Clothing and
Pose Augmentation [2.1756081703276]
長期の人物再同定は、長期にわたるカメラ間で個人をマッチングすることを目的としている。
我々は,LRe-IDのためのコントラスト的衣服とポース拡張フレームワークであるCCPAを提案する。
論文 参考訳(メタデータ) (2024-02-22T11:16:34Z) - Attention-based Shape and Gait Representations Learning for Video-based
Cloth-Changing Person Re-Identification [1.6385815610837167]
我々は「注意に基づく形状と歩行表現学習」(ASGL)を提案することにより、映像ベースの衣服交換者Re-ID(VCCRe-ID)の実践的問題に対処する。
当社のASGLフレームワークは,衣服不変歩行手がかりを学習することにより,衣服変動下でのRe-ID性能を向上させる。
提案するST-GATはマルチヘッドアテンションモジュールから構成されており,歩行埋め込みの堅牢性を高めることができる。
論文 参考訳(メタデータ) (2024-02-06T05:11:46Z) - SkeleTR: Towrads Skeleton-based Action Recognition in the Wild [86.03082891242698]
SkeleTRは骨格に基づく行動認識のための新しいフレームワークである。
まず、グラフ畳み込みによる各骨格配列の人体内骨格力学をモデル化する。
次に、スタック化されたTransformerエンコーダを使用して、一般的なシナリオにおけるアクション認識に重要な人物のインタラクションをキャプチャする。
論文 参考訳(メタデータ) (2023-09-20T16:22:33Z) - A Benchmark of Video-Based Clothes-Changing Person Re-Identification [20.010401795892125]
着替え型ビデオベース再識別(CCVReID)の比較的新しい実用的課題について検討する。
我々は,CCVReID問題を扱うための2分岐信頼度対応フレームワークを開発する。
CCVReID問題のためのベンチマークデータセットを2つ構築する。
論文 参考訳(メタデータ) (2022-11-21T03:38:18Z) - Pose-Aided Video-based Person Re-Identification via Recurrent Graph
Convolutional Network [41.861537712563816]
本稿では,映像検索機能以外の識別的ポーズ特徴を学習することを提案する。
ポーズの特徴を学習するために、私たちはまず、オフザシェルフポーズ検知器を通して各フレーム内の歩行者のポーズを検出する。
次に、繰り返しグラフ畳み込みネットワーク(RGCN)を用いて、時間的ポーズグラフのノード埋め込みを学習する。
論文 参考訳(メタデータ) (2022-09-23T13:20:33Z) - Towards a Deeper Understanding of Skeleton-based Gait Recognition [4.812321790984493]
近年、ほとんどの歩行認識法は、人のシルエットを使って歩行の特徴を抽出している。
モデルに基づく手法はこれらの問題に悩まされず、身体関節の時間運動を表現することができる。
本研究では,高次入力と残差ネットワークを組み合わせたグラフ畳み込みネットワーク(GCN)に基づくアプローチを提案する。
論文 参考訳(メタデータ) (2022-04-16T18:23:37Z) - Clothes-Changing Person Re-identification with RGB Modality Only [102.44387094119165]
衣料無関係な特徴を元のRGB画像から抽出するために,CAL(Corthes-based Adrial Loss)を提案する。
ビデオには、よりリッチな外観と、適切な時間的パターンをモデル化するために使用できる追加の時間的情報が含まれている。
論文 参考訳(メタデータ) (2022-04-14T11:38:28Z) - Cloth-Changing Person Re-identification from A Single Image with Gait
Prediction and Regularization [65.50321170655225]
本稿では,画像レイドモデルを用いて布非依存表現を学習するための補助タスクとして,歩行認識を導入する。
画像ベースのCloth-Changing ReIDベンチマーク(例えば、LTCC、PRCC、Real28、VC-Clothes)の実験は、GI-ReIDが最先端技術に対して好適に動作することを示した。
論文 参考訳(メタデータ) (2021-03-29T12:10:50Z) - Apparel-invariant Feature Learning for Apparel-changed Person
Re-identification [70.16040194572406]
ほとんどのパブリックなReIDデータセットは、人の外観がほとんど変化しない短時間のウィンドウで収集される。
ショッピングモールのような現実世界の応用では、同じ人の服装が変化し、異なる人が同様の服を着ることがある。
着替えなどの場合や、類似の服を着ている場合などにおいて、アパレル不変の人物表現を学ぶことは極めて重要である。
論文 参考訳(メタデータ) (2020-08-14T03:49:14Z) - Long-Term Cloth-Changing Person Re-identification [154.57752691285046]
人物再識別(Re-ID)は、異なる場所や時間におけるカメラビュー間で対象人物をマッチングすることを目的としている。
既存のRe-ID研究は、ある人が同じ服装で異なるカメラビューに再び現れる、短期的な布一貫した環境に焦点を当てている。
本研究は,例えば,何日,何ヶ月にもわたって,長期にまたがって人とのマッチングを行う,はるかに困難かつ実践的な環境に焦点をあてる。
論文 参考訳(メタデータ) (2020-05-26T11:27:21Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。