論文の概要: Spectrum-guided Feature Enhancement Network for Event Person Re-Identification
- arxiv url: http://arxiv.org/abs/2402.01269v2
- Date: Mon, 23 Dec 2024 02:50:27 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-12-24 19:21:35.974225
- Title: Spectrum-guided Feature Enhancement Network for Event Person Re-Identification
- Title(参考訳): イベントパーソン再同定のためのスペクトル誘導型特徴強調ネットワーク
- Authors: Hongchen Tan, Yi Zhang, Xiuping Liu, Baocai Yin, Nan Ma, Xin Li, Huchuan Lu,
- Abstract要約: スペクトル誘導型特徴拡張ネットワーク(SFE-Net)について紹介する。
SFE-Netは、Multi-grain Spectrum Attention Mechanism (MSAM)とConsecutive Patch Dropout Module (CPDM)の2つの革新的なコンポーネントで構成されている。
- 参考スコア(独自算出の注目度): 78.58871881610165
- License:
- Abstract: As a cutting-edge biosensor, the event camera holds significant potential in the field of computer vision, particularly regarding privacy preservation. However, compared to traditional cameras, event streams often contain noise and possess extremely sparse semantics, posing a formidable challenge for event-based person re-identification (event Re-ID). To address this, we introduce a novel event person re-identification network: the Spectrum-guided Feature Enhancement Network (SFE-Net). This network consists of two innovative components: the Multi-grain Spectrum Attention Mechanism (MSAM) and the Consecutive Patch Dropout Module (CPDM). MSAM employs a fourier spectrum transform strategy to filter event noise, while also utilizing an event-guided multi-granularity attention strategy to enhance and capture discriminative person semantics. CPDM employs a consecutive patch dropout strategy to generate multiple incomplete feature maps, encouraging the deep Re-ID model to equally perceive each effective region of the person's body and capture robust person descriptors. Extensive experiments on Event Re-ID datasets demonstrate that our SFE-Net achieves the best performance in this task.
- Abstract(参考訳): 最先端のバイオセンサーであるこのイベントカメラは、特にプライバシー保護に関して、コンピュータビジョンの分野で大きな可能性を秘めている。
しかし、従来のカメラと比較して、イベントストリームはノイズを伴い、非常にスパースなセマンティクスを持ち、イベントベースの人物の再識別(イベントRe-ID)には恐ろしい挑戦を巻き起こす。
そこで我々は,新しい人物識別ネットワークであるスペクトル誘導特徴強調ネットワーク(SFE-Net)を紹介した。
このネットワークは、2つの革新的なコンポーネント、MSAM(Multi-grain Spectrum Attention Mechanism)とCPDM(Consecutive Patch Dropout Module)で構成されている。
MSAMは、イベントノイズをフィルタリングするためにフーリエスペクトル変換戦略を使用し、また、イベント誘導多粒度注意戦略を利用して、識別的人物意味論を強化し、キャプチャする。
CPDMは、複数の不完全な特徴マップを生成するために、連続的なパッチドロップアウト戦略を採用しており、ディープ Re-IDモデルは、人の身体の各有効領域を等しく知覚し、堅牢な人物記述子を捕獲することを奨励している。
Event Re-IDデータセットに関する大規模な実験は、私たちのSFE-Netがこのタスクで最高のパフォーマンスを達成することを示す。
関連論文リスト
- ViFi-ReID: A Two-Stream Vision-WiFi Multimodal Approach for Person Re-identification [3.3743041904085125]
人物再識別(ReID)は、安全検査、人員計数などにおいて重要な役割を担っている。
現在のReIDアプローチのほとんどは、主に目的条件の影響を受けやすい画像から特徴を抽出する。
我々は、Wi-Fi信号のチャネル状態情報(CSI)を介して歩行者からの歩行情報をキャプチャすることで、広く利用可能なルータをセンサデバイスとして活用する。
論文 参考訳(メタデータ) (2024-10-13T15:34:11Z) - PartFormer: Awakening Latent Diverse Representation from Vision Transformer for Object Re-Identification [73.64560354556498]
Vision Transformer (ViT) は、ほとんどの異なる訓練データ領域に過度に適合する傾向にあり、その一般化性と全体的対象特徴への注意が制限される。
本稿では、オブジェクトRe-IDタスクの制限を克服するために設計された、ViTの革新的な適応であるPartFormerを紹介する。
我々のフレームワークは、最も困難なMSMT17データセットにおいて、最先端の2.4%のmAPスコアを著しく上回る。
論文 参考訳(メタデータ) (2024-08-29T16:31:05Z) - MambaPupil: Bidirectional Selective Recurrent model for Event-based Eye tracking [50.26836546224782]
事象に基づく視線追跡は、高時間分解能と低冗長性で非常に有望である。
点眼、固定、ササード、スムーズな追跡を含む眼球運動パターンの多様性と急激さは、眼球運動の局所化に重要な課題を提起する。
本稿では、文脈時空間情報を完全に活用するための双方向の長期シーケンスモデリングと時間変化状態選択機構を提案する。
論文 参考訳(メタデータ) (2024-04-18T11:09:25Z) - SpikeMOT: Event-based Multi-Object Tracking with Sparse Motion Features [52.213656737672935]
SpikeMOTはイベントベースのマルチオブジェクトトラッカーである。
SpikeMOTはスパイクニューラルネットワークを使用して、オブジェクトに関連するイベントストリームからスパーステンポラルな特徴を抽出する。
論文 参考訳(メタデータ) (2023-09-29T05:13:43Z) - HiDAnet: RGB-D Salient Object Detection via Hierarchical Depth Awareness [2.341385717236931]
本稿では,RGB-Dサリエンシ検出のための階層的深度認識ネットワーク(HiDAnet)を提案する。
我々のモチベーションは、幾何学的先行の多粒性特性がニューラルネットワーク階層とよく相関しているという観察から来ています。
当社のHiDAnetは最先端の手法よりも大きなマージンで良好に動作します。
論文 参考訳(メタデータ) (2023-01-18T10:00:59Z) - Feature Disentanglement Learning with Switching and Aggregation for
Video-based Person Re-Identification [9.068045610800667]
映像人物再識別(Re-ID)では、連続したフレームから対象人物の特徴を一貫して抽出する必要がある。
既存の手法は時間的情報の使用方法にのみ焦点をあてる傾向があり、しばしばネットワークは同じような外観と同じ背景に騙される。
本稿では,DSANet(Disentanglement and Switching and Aggregation Network)を提案する。
論文 参考訳(メタデータ) (2022-12-16T04:27:56Z) - Dynamic Prototype Mask for Occluded Person Re-Identification [88.7782299372656]
既存の手法では、目に見える部分を識別するために、余分なネットワークによって提供される身体の手がかりを利用することで、この問題に対処している。
2つの自己明快な事前知識に基づく新しい動的プロトタイプマスク(DPM)を提案する。
この条件下では、隠蔽された表現は、選択された部分空間において自然にうまく整列することができる。
論文 参考訳(メタデータ) (2022-07-19T03:31:13Z) - Specificity-preserving RGB-D Saliency Detection [103.3722116992476]
本稿では,RGB-Dサリエンシ検出のための特異性保存ネットワーク(SP-Net)を提案する。
2つのモダリティ特化ネットワークと共有学習ネットワークを採用し、個別および共有唾液マップを生成する。
6つのベンチマークデータセットの実験では、SP-Netは他の最先端の手法よりも優れています。
論文 参考訳(メタデータ) (2021-08-18T14:14:22Z) - Semantic Consistency and Identity Mapping Multi-Component Generative
Adversarial Network for Person Re-Identification [39.605062525247135]
本稿では,1つのドメインから複数のドメインへのスタイル適応を提供する,意味一貫性とアイデンティティマッピングの多成分生成対向ネットワーク(SC-IMGAN)を提案する。
提案手法は,6つの挑戦的人物リidデータセットにおける最先端技術よりも優れている。
論文 参考訳(メタデータ) (2021-04-28T14:12:29Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。