論文の概要: Cross-modality Person re-identification with Shared-Specific Feature
Transfer
- arxiv url: http://arxiv.org/abs/2002.12489v3
- Date: Thu, 12 Mar 2020 08:52:17 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-28 02:23:08.985608
- Title: Cross-modality Person re-identification with Shared-Specific Feature
Transfer
- Title(参考訳): 共有特徴伝達によるモダリティ間の人物再識別
- Authors: Yan Lu, Yue Wu, Bin Liu, Tianzhu Zhang, Baopu Li, Qi Chu and Nenghai
Yu
- Abstract要約: クロスモダリティの人物再識別(cm-ReID)は、インテリジェントビデオ分析において難しいが重要な技術である。
モーダリティ共有型特徴伝達アルゴリズム (cm-SSFT) を提案し, モーダリティ共有型情報とモーダリティ固有特性の両方のポテンシャルについて検討する。
- 参考スコア(独自算出の注目度): 112.60513494602337
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Cross-modality person re-identification (cm-ReID) is a challenging but key
technology for intelligent video analysis. Existing works mainly focus on
learning common representation by embedding different modalities into a same
feature space. However, only learning the common characteristics means great
information loss, lowering the upper bound of feature distinctiveness. In this
paper, we tackle the above limitation by proposing a novel cross-modality
shared-specific feature transfer algorithm (termed cm-SSFT) to explore the
potential of both the modality-shared information and the modality-specific
characteristics to boost the re-identification performance. We model the
affinities of different modality samples according to the shared features and
then transfer both shared and specific features among and across modalities. We
also propose a complementary feature learning strategy including modality
adaption, project adversarial learning and reconstruction enhancement to learn
discriminative and complementary shared and specific features of each modality,
respectively. The entire cm-SSFT algorithm can be trained in an end-to-end
manner. We conducted comprehensive experiments to validate the superiority of
the overall algorithm and the effectiveness of each component. The proposed
algorithm significantly outperforms state-of-the-arts by 22.5% and 19.3% mAP on
the two mainstream benchmark datasets SYSU-MM01 and RegDB, respectively.
- Abstract(参考訳): クロスモダリティの人物再識別(cm-ReID)は、インテリジェントビデオ分析において難しいが重要な技術である。
既存の仕事は主に、異なるモダリティを同じ機能空間に埋め込むことで共通表現を学ぶことに焦点を当てている。
しかし、共通の特徴のみを学ぶことは、大きな情報損失を意味し、特徴の上限を下げる。
本稿では,モダリティ共有特化特徴伝達アルゴリズム(cm-SSFT)を提案し,モダリティ共有情報とモダリティ特化特性の両方のポテンシャルを探索し,再識別性能を高めることにより,上記の制限に対処する。
我々は、共有特徴に応じて異なるモダリティサンプルの親和性をモデル化し、モダリティ間の共有特徴と特定特徴の両方を伝達する。
また,モダリティ適応,プロジェクト反対学習,再構成強化を含む補完的特徴学習戦略を提案し,各モダリティの識別的特徴と相補的特徴をそれぞれ学習する。
cm-SSFTアルゴリズム全体をエンドツーエンドでトレーニングすることができる。
全体アルゴリズムの優位性と各成分の有効性を検証するための総合的な実験を行った。
提案手法は,2つの主要ベンチマークデータセットであるsysu-mm01とregdbにおいて,22.5%,19.3%の精度で有意差を示した。
関連論文リスト
- GSSF: Generalized Structural Sparse Function for Deep Cross-modal Metric Learning [51.677086019209554]
ペアワイド類似性学習のためのモダリティ間の強力な関係を捕捉する汎用構造スパースを提案する。
距離メートル法は、対角線とブロック対角線の2つの形式を微妙にカプセル化する。
クロスモーダルと2つの余分なユニモーダル検索タスクの実験は、その優位性と柔軟性を検証した。
論文 参考訳(メタデータ) (2024-10-20T03:45:50Z) - Cross-Modality Gait Recognition: Bridging LiDAR and Camera Modalities for Human Identification [8.976513021790984]
多様なデータモダリティをクロス検索できるCrossGaitを提案する。
本稿では,2つのモーダリティ特化特徴からモーダリティ共有特徴を学習するプロトタイプ型モーダリティ共有アテンションモジュールを提案する。
また、学習したモダリティ固有の特徴を統一された特徴空間に変換するクロスモダリティ特徴適応器を設計する。
論文 参考訳(メタデータ) (2024-04-04T10:12:55Z) - Deep Common Feature Mining for Efficient Video Semantic Segmentation [29.054945307605816]
ビデオセマンティックセグメンテーションのためのDeep Common Feature Mining(DCFM)を提案する。
DCFMは、機能を2つの補完的なコンポーネントに明示的に分解する。
本手法は精度と効率のバランスが優れていることを示す。
論文 参考訳(メタデータ) (2024-03-05T06:17:59Z) - On Exploring Pose Estimation as an Auxiliary Learning Task for
Visible-Infrared Person Re-identification [66.58450185833479]
本稿では,Pose Estimationを補助学習タスクとして活用して,エンドツーエンドフレームワークにおけるVI-ReIDタスクを支援する。
これら2つのタスクを相互に有利な方法で共同でトレーニングすることにより、高品質なモダリティ共有とID関連の特徴を学習する。
2つのベンチマークVI-ReIDデータセットの実験結果から,提案手法は一定のマージンで最先端の手法を継続的に改善することが示された。
論文 参考訳(メタデータ) (2022-01-11T09:44:00Z) - A cross-modal fusion network based on self-attention and residual
structure for multimodal emotion recognition [7.80238628278552]
マルチモーダル感情認識のための自己注意構造と残像構造(CFN-SR)に基づく新たなクロスモーダル融合ネットワークを提案する。
提案手法の有効性を検証するため,RAVDESSデータセットを用いて実験を行った。
実験結果から,提案したCFN-SRは最先端技術を実現し,精度が75.76%,パラメータが26.30Mであることが確認された。
論文 参考訳(メタデータ) (2021-11-03T12:24:03Z) - MSO: Multi-Feature Space Joint Optimization Network for RGB-Infrared
Person Re-Identification [35.97494894205023]
RGB-infrared cross-modality person re-identification (ReID) タスクは、可視モダリティと赤外線モダリティの同一性の画像を認識することを目的としている。
既存の手法は主に2ストリームアーキテクチャを使用して、最終的な共通特徴空間における2つのモード間の相違を取り除く。
単一モダリティ空間と共通空間の両方において、モダリティ調和可能な特徴を学習できる新しい多機能空間共同最適化(MSO)ネットワークを提案する。
論文 参考訳(メタデータ) (2021-10-21T16:45:23Z) - Specificity-preserving RGB-D Saliency Detection [103.3722116992476]
本稿では,RGB-Dサリエンシ検出のための特異性保存ネットワーク(SP-Net)を提案する。
2つのモダリティ特化ネットワークと共有学習ネットワークを採用し、個別および共有唾液マップを生成する。
6つのベンチマークデータセットの実験では、SP-Netは他の最先端の手法よりも優れています。
論文 参考訳(メタデータ) (2021-08-18T14:14:22Z) - Exploring Modality-shared Appearance Features and Modality-invariant
Relation Features for Cross-modality Person Re-Identification [72.95858515157603]
クロスモダリティの人物再識別作業は、識別モダリティ共有機能に依存する。
初期の成功にもかかわらず、このようなモダリティ共有の外観機能は十分なモダリティ不変情報をキャプチャできない。
クロスモダリティの変動をさらに低減するために、新しいクロスモダリティ四重極損失が提案される。
論文 参考訳(メタデータ) (2021-04-23T11:14:07Z) - Domain Private and Agnostic Feature for Modality Adaptive Face
Recognition [10.497190559654245]
本稿では,不整合表現モジュール(DRM),特徴融合モジュール(FFM),計量ペナルティ学習セッションを含む特徴集約ネットワーク(FAN)を提案する。
第一に、DRMでは、ドメインに依存しないネットワークとドメインに依存しないネットワークという2つのワークは、モダリティの特徴とアイデンティティの特徴を学習するために特別に設計されている。
第2に、FFMでは、ID特徴をドメイン特徴と融合させて、双方向の双方向ID特徴変換を実現する。
第3に、容易なペアとハードペアの分布不均衡がクロスモーダルデータセットに存在することを考えると、適応性のあるID保存計量学習が可能である。
論文 参考訳(メタデータ) (2020-08-10T00:59:42Z) - Modality Compensation Network: Cross-Modal Adaptation for Action
Recognition [77.24983234113957]
異なるモダリティの関係を探索するためのモダリティ補償ネットワーク(MCN)を提案する。
我々のモデルは、適応表現学習を実現するために、モーダリティ適応ブロックによって、ソースおよび補助モーダリティからのデータをブリッジする。
実験の結果,MCNは4つの広く使用されている行動認識ベンチマークにおいて,最先端のアプローチよりも優れていることがわかった。
論文 参考訳(メタデータ) (2020-01-31T04:51:55Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。