論文の概要: Cross-Modality Gait Recognition: Bridging LiDAR and Camera Modalities for Human Identification
- arxiv url: http://arxiv.org/abs/2404.04120v1
- Date: Thu, 4 Apr 2024 10:12:55 GMT
- ステータス: 処理完了
- システム内更新日: 2024-04-08 15:55:28.109359
- Title: Cross-Modality Gait Recognition: Bridging LiDAR and Camera Modalities for Human Identification
- Title(参考訳): モダリティ間の歩行認識:人間識別のためのLiDARとカメラモダリティのブリッジ化
- Authors: Rui Wang, Chuanfu Shen, Manuel J. Marin-Jimenez, George Q. Huang, Shiqi Yu,
- Abstract要約: 多様なデータモダリティをクロス検索できるCrossGaitを提案する。
本稿では,2つのモーダリティ特化特徴からモーダリティ共有特徴を学習するプロトタイプ型モーダリティ共有アテンションモジュールを提案する。
また、学習したモダリティ固有の特徴を統一された特徴空間に変換するクロスモダリティ特徴適応器を設計する。
- 参考スコア(独自算出の注目度): 8.976513021790984
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Current gait recognition research mainly focuses on identifying pedestrians captured by the same type of sensor, neglecting the fact that individuals may be captured by different sensors in order to adapt to various environments. A more practical approach should involve cross-modality matching across different sensors. Hence, this paper focuses on investigating the problem of cross-modality gait recognition, with the objective of accurately identifying pedestrians across diverse vision sensors. We present CrossGait inspired by the feature alignment strategy, capable of cross retrieving diverse data modalities. Specifically, we investigate the cross-modality recognition task by initially extracting features within each modality and subsequently aligning these features across modalities. To further enhance the cross-modality performance, we propose a Prototypical Modality-shared Attention Module that learns modality-shared features from two modality-specific features. Additionally, we design a Cross-modality Feature Adapter that transforms the learned modality-specific features into a unified feature space. Extensive experiments conducted on the SUSTech1K dataset demonstrate the effectiveness of CrossGait: (1) it exhibits promising cross-modality ability in retrieving pedestrians across various modalities from different sensors in diverse scenes, and (2) CrossGait not only learns modality-shared features for cross-modality gait recognition but also maintains modality-specific features for single-modality recognition.
- Abstract(参考訳): 現在の歩行認識研究は、主に同じ種類のセンサーによって捕獲された歩行者を特定することに焦点を当てており、様々な環境に適応するために、個人が異なるセンサーによって捕獲されたという事実を無視している。
より実践的なアプローチは、異なるセンサー間での相互モダリティマッチングを含むべきである。
そこで本研究では,多様な視覚センサを用いた歩行者の正確な識別を目的とした,モダリティ間歩行認識の課題について検討する。
多様なデータモダリティをクロス検索できる機能アライメント戦略に着想を得たCrossGaitを提案する。
具体的には、まず各モダリティ内の特徴を抽出し、その後、これらの特徴をモダリティ間で整列させることにより、モダリティ間認識タスクについて検討する。
そこで本研究では,2つのモーダリティ特化特徴からモーダリティ共有特徴を学習するプロトタイプ型モーダリティ共有アテンションモジュールを提案する。
さらに、学習したモダリティ固有の特徴を統一された特徴空間に変換するクロスモダリティ特徴適応器を設計する。
SUSTech1Kデータセットで実施した大規模な実験は、(1)多様な場面で異なるセンサーから様々なモードで歩行者を検索する上で有望なクロスモダリティ能力を示し、(2)クロスゲイトは、クロスモダリティ歩行認識のためのモダリティ共有の特徴を学習するだけでなく、単一モダリティ認識のためのモダリティ特有な特徴も維持する。
関連論文リスト
- GSSF: Generalized Structural Sparse Function for Deep Cross-modal Metric Learning [51.677086019209554]
ペアワイド類似性学習のためのモダリティ間の強力な関係を捕捉する汎用構造スパースを提案する。
距離メートル法は、対角線とブロック対角線の2つの形式を微妙にカプセル化する。
クロスモーダルと2つの余分なユニモーダル検索タスクの実験は、その優位性と柔軟性を検証した。
論文 参考訳(メタデータ) (2024-10-20T03:45:50Z) - EMDFNet: Efficient Multi-scale and Diverse Feature Network for Traffic Sign Detection [11.525603303355268]
小さな物体、特に交通標識の検出は、物体の検出と自律運転において重要なサブタスクである。
これらの課題に乗じて,EMDFNet(Efficient Multi-scale and Diverse Feature Network)という新しいオブジェクト検出ネットワークを提案する。
EMDFNetはAugmented Shortcut ModuleとEfficient Hybridを統合し、上記の問題に同時に対処する。
論文 参考訳(メタデータ) (2024-08-26T11:26:27Z) - Dynamic Identity-Guided Attention Network for Visible-Infrared Person Re-identification [17.285526655788274]
Visible-infrared person re-identification (VI-ReID) は、可視光と赤外線の同一性を持つ人物をマッチングすることを目的としている。
既存の方法は一般的に、画像や特徴レベルでのクロスモーダルな違いを橋渡ししようとする。
我々は、動的ID誘導型注意ネットワーク(DIAN)を導入し、アイデンティティ誘導型およびモダリティ一貫性のある埋め込みをマイニングする。
論文 参考訳(メタデータ) (2024-05-21T12:04:56Z) - Disentangled Interaction Representation for One-Stage Human-Object
Interaction Detection [70.96299509159981]
ヒューマン・オブジェクト・インタラクション(HOI)検出は、人間中心の画像理解のコアタスクである。
最近のワンステージ手法では、対話予測に有用な画像ワイドキューの収集にトランスフォーマーデコーダを採用している。
従来の2段階の手法は、非絡み合いで説明可能な方法で相互作用特徴を構成する能力から大きな恩恵を受ける。
論文 参考訳(メタデータ) (2023-12-04T08:02:59Z) - Object Segmentation by Mining Cross-Modal Semantics [68.88086621181628]
マルチモーダル特徴の融合と復号を導くために,クロスモーダル・セマンティックスをマイニングする手法を提案する。
具体的には,(1)全周減衰核融合(AF),(2)粗大デコーダ(CFD),(3)多層自己超越からなる新しいネットワークXMSNetを提案する。
論文 参考訳(メタデータ) (2023-05-17T14:30:11Z) - Cross-Modality Attentive Feature Fusion for Object Detection in
Multispectral Remote Sensing Imagery [0.6853165736531939]
マルチスペクトルリモートセンシング画像ペアの相補的な情報を融合するクロスモダリティは、検出アルゴリズムの知覚能力を向上させることができる。
本稿では,共通モダリティと差分モダリティを併用した,新規で軽量なマルチスペクトル特徴融合法を提案する。
提案手法は,最先端の性能を低コストで実現することができる。
論文 参考訳(メタデータ) (2021-12-06T13:12:36Z) - Exploring Modality-shared Appearance Features and Modality-invariant
Relation Features for Cross-modality Person Re-Identification [72.95858515157603]
クロスモダリティの人物再識別作業は、識別モダリティ共有機能に依存する。
初期の成功にもかかわらず、このようなモダリティ共有の外観機能は十分なモダリティ不変情報をキャプチャできない。
クロスモダリティの変動をさらに低減するために、新しいクロスモダリティ四重極損失が提案される。
論文 参考訳(メタデータ) (2021-04-23T11:14:07Z) - Robust Facial Landmark Detection by Cross-order Cross-semantic Deep
Network [58.843211405385205]
顔のランドマーク検出を堅牢にするためのセマンティックな特徴学習を促進するために,クロスオーダー・クロスセマンティック・ディープ・ネットワーク(CCDN)を提案する。
具体的には、より識別的な表現学習のためのクロスオーダーチャネル相関を導入するために、クロスオーダー2列マルチ励起(CTM)モジュールを提案する。
新しいクロス・オーダー・クロス・セマンティック・レギュレータ (COCS) は、顔のランドマーク検出のために異なるアクティベーションからクロス・オーダーのクロス・セマンティック特徴を学習するためにネットワークを駆動するように設計されている。
論文 参考訳(メタデータ) (2020-11-16T08:19:26Z) - Cross-modality Person re-identification with Shared-Specific Feature
Transfer [112.60513494602337]
クロスモダリティの人物再識別(cm-ReID)は、インテリジェントビデオ分析において難しいが重要な技術である。
モーダリティ共有型特徴伝達アルゴリズム (cm-SSFT) を提案し, モーダリティ共有型情報とモーダリティ固有特性の両方のポテンシャルについて検討する。
論文 参考訳(メタデータ) (2020-02-28T00:18:45Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。