論文の概要: TSDW: A Tri-Stream Dynamic Weight Network for Cloth-Changing Person Re-Identification
- arxiv url: http://arxiv.org/abs/2503.00477v1
- Date: Sat, 01 Mar 2025 13:04:49 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-03-05 19:19:08.729450
- Title: TSDW: A Tri-Stream Dynamic Weight Network for Cloth-Changing Person Re-Identification
- Title(参考訳): TSDW: 衣服交換者再同定のための3ストリーム動的重みネットワーク
- Authors: Ruiqi He, Zihan Wang, Xiang Zhou,
- Abstract要約: 衣服交換者再識別は、異なる時間空間シナリオで個人を特定するという課題を解決することを目的としている。
既存のReID研究は主に、顔認識、意味認識、衣服に関係のない特徴識別に頼っている。
本稿では,画像のみを必要とするTri-Stream Dynamic Weight Network (TSDW)を提案する。
- 参考スコア(独自算出の注目度): 10.51699935302901
- License:
- Abstract: Cloth-Changing Person Re-identification (CC-ReID) aims to solve the challenge of identifying individuals across different temporal-spatial scenarios, viewpoints, and clothing variations. This field is gaining increasing attention in big data research and public security domains. Existing ReID research primarily relies on face recognition, gait semantic recognition, and clothing-irrelevant feature identification, which perform relatively well in scenarios with high-quality clothing change videos and images. However, these approaches depend on either single features or simple combinations of multiple features, making further performance improvements difficult. Additionally, limitations such as missing facial information, challenges in gait extraction, and inconsistent camera parameters restrict the broader application of CC-ReID. To address the above limitations, we innovatively propose a Tri-Stream Dynamic Weight Network (TSDW) that requires only images. This dynamic weighting network consists of three parallel feature streams: facial features, head-limb features, and global features. Each stream specializes in extracting its designated features, after which a gating network dynamically fuses confidence levels. The three parallel feature streams enhance recognition performance and reduce the impact of any single feature failure, thereby improving model robustness. Extensive experiments on benchmark datasets (e.g., PRCC, Celeb-reID, VC-Clothes) demonstrate that our method significantly outperforms existing state-of-the-art approaches.
- Abstract(参考訳): 衣服交換者再識別(CC-ReID)は、異なる時間空間シナリオ、視点、衣服のバリエーションにまたがる個人を特定するという課題を解決することを目的としている。
この分野は、ビッグデータ研究や公共セキュリティ分野において注目を集めている。
既存のReID研究は主に顔認識、歩行意味認識、衣服関連の特徴識別に依存しており、高品質の衣服がビデオや画像を変えるシナリオでは比較的よく機能する。
しかし、これらのアプローチは、単一機能または複数の機能の単純な組み合わせに依存するため、さらなるパフォーマンス改善が困難になる。
さらに、顔情報不足、歩行抽出の課題、一貫性のないカメラパラメータなどの制限は、CC-ReIDの広範な適用を制限する。
上記の制約に対処するために,画像のみを必要とするTri-Stream Dynamic Weight Network (TSDW) を提案する。
この動的重み付けネットワークは、3つの平行な特徴ストリームで構成されている。
各ストリームは指定された特徴の抽出を専門とし、その後、ゲーティングネットワークは信頼レベルを動的に融合する。
3つの並列特徴ストリームは認識性能を高め、単一機能障害の影響を低減し、モデルロバスト性を向上させる。
ベンチマークデータセット(例えば、PRCC、Celeb-reID、VC-Clothes)の大規模な実験により、我々の手法が既存の最先端のアプローチを大幅に上回ることを示した。
関連論文リスト
- Cross-Modal Synergies: Unveiling the Potential of Motion-Aware Fusion Networks in Handling Dynamic and Static ReID Scenarios [4.635813517641097]
本稿では,静的画像から得られる動きキューを利用してReID機能を大幅に向上させる,新しいMotion-Aware Fusion (MOTAR-FUSE) ネットワークを提案する。
我々のアプローチのユニークな側面は、モーション・アウェア・トランスフォーマーが人間の動きのダイナミクスを正確に捉えることができるような、動きの整合性タスクの統合である。
論文 参考訳(メタデータ) (2025-02-02T04:37:25Z) - PartFormer: Awakening Latent Diverse Representation from Vision Transformer for Object Re-Identification [73.64560354556498]
Vision Transformer (ViT) は、ほとんどの異なる訓練データ領域に過度に適合する傾向にあり、その一般化性と全体的対象特徴への注意が制限される。
本稿では、オブジェクトRe-IDタスクの制限を克服するために設計された、ViTの革新的な適応であるPartFormerを紹介する。
我々のフレームワークは、最も困難なMSMT17データセットにおいて、最先端の2.4%のmAPスコアを著しく上回る。
論文 参考訳(メタデータ) (2024-08-29T16:31:05Z) - Improving Neural Surface Reconstruction with Feature Priors from Multi-View Image [87.00660347447494]
ニューラルサーフェス・コンストラクション(NSR)の最近の進歩は、ボリュームレンダリングと組み合わせることで、マルチビュー・コンストラクションを著しく改善している。
本稿では,多種多様な視覚的タスクから価値ある特徴を活用すべく,特徴レベルの一貫した損失について検討する。
DTU と EPFL を用いて解析した結果,画像マッチングと多視点ステレオデータセットによる特徴が,他のプリテキストタスクよりも優れていたことが判明した。
論文 参考訳(メタデータ) (2024-08-04T16:09:46Z) - DiffFAE: Advancing High-fidelity One-shot Facial Appearance Editing with Space-sensitive Customization and Semantic Preservation [84.0586749616249]
本稿では,高忠実度顔画像編集に適した1段階かつ高効率な拡散ベースフレームワークDiffFAEを提案する。
高忠実度クエリ属性転送には、空間感性物理カスタマイズ(SPC)を採用し、忠実度と一般化能力を保証している。
ソース属性を保存するために、Regional-responsive Semantic Composition (RSC)を導入する。
このモジュールは、切り離されたソースを無視する特徴を学習するためにガイドされ、髪、服、背景などの非顔的属性からアーティファクトを保存し緩和する。
論文 参考訳(メタデータ) (2024-03-26T12:53:10Z) - Feature Disentanglement Learning with Switching and Aggregation for
Video-based Person Re-Identification [9.068045610800667]
映像人物再識別(Re-ID)では、連続したフレームから対象人物の特徴を一貫して抽出する必要がある。
既存の手法は時間的情報の使用方法にのみ焦点をあてる傾向があり、しばしばネットワークは同じような外観と同じ背景に騙される。
本稿では,DSANet(Disentanglement and Switching and Aggregation Network)を提案する。
論文 参考訳(メタデータ) (2022-12-16T04:27:56Z) - Semantic Consistency and Identity Mapping Multi-Component Generative
Adversarial Network for Person Re-Identification [39.605062525247135]
本稿では,1つのドメインから複数のドメインへのスタイル適応を提供する,意味一貫性とアイデンティティマッピングの多成分生成対向ネットワーク(SC-IMGAN)を提案する。
提案手法は,6つの挑戦的人物リidデータセットにおける最先端技術よりも優れている。
論文 参考訳(メタデータ) (2021-04-28T14:12:29Z) - Hierarchical Deep CNN Feature Set-Based Representation Learning for
Robust Cross-Resolution Face Recognition [59.29808528182607]
クロスリゾリューション顔認識(CRFR)は、インテリジェントな監視およびバイオメトリックフォレンジックにおいて重要である。
既存の浅層学習と深層学習に基づく手法は、HR-LR対を共同特徴空間にマッピングすることに焦点を当てている。
本研究では,多レベル深層畳み込みニューラルネットワーク(CNN)の機能を完全に活用し,堅牢なCRFRを実現することを目的とする。
論文 参考訳(メタデータ) (2021-03-25T14:03:42Z) - Generalized Iris Presentation Attack Detection Algorithm under
Cross-Database Settings [63.90855798947425]
プレゼンテーションアタックは、バイオメトリックなモダリティの大部分に大きな課題をもたらす。
本稿では,汎用的な深層学習に基づくプレゼンテーション攻撃検出ネットワークであるMVANetを提案する。
これはハイブリッドアルゴリズムの単純さと成功、あるいは複数の検出ネットワークの融合にインスパイアされている。
論文 参考訳(メタデータ) (2020-10-25T22:42:27Z) - Challenge-Aware RGBT Tracking [32.88141817679821]
本稿では,モダリティに偏った課題と,モダリティに特有の課題に対処する,新たな課題認識ニューラルネットワークを提案する。
提案手法は,3つのベンチマークデータセット上での最先端手法に対して高い性能を保ちながら,リアルタイムに動作可能であることを示す。
論文 参考訳(メタデータ) (2020-07-26T15:11:44Z) - Attribute-aware Identity-hard Triplet Loss for Video-based Person
Re-identification [51.110453988705395]
ビデオベースの人物識別(Re-ID)は重要なコンピュータビジョンタスクである。
属性認識型ID-hard Triplet Loss (AITL) と呼ばれる新しいメトリクス学習手法を提案する。
ビデオベースのRe-IDの完全なモデルを実現するために,Attribute-driven Spatio-Temporal Attention (ASTA) 機構を備えたマルチタスクフレームワークを提案する。
論文 参考訳(メタデータ) (2020-06-13T09:15:38Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。