論文の概要: Mutual Distillation Learning For Person Re-Identification
- arxiv url: http://arxiv.org/abs/2401.06430v1
- Date: Fri, 12 Jan 2024 07:49:02 GMT
- ステータス: 処理完了
- システム内更新日: 2024-01-15 20:08:57.736304
- Title: Mutual Distillation Learning For Person Re-Identification
- Title(参考訳): 人物再同定のための相互蒸留学習
- Authors: Huiyuan Fu, Kuilong Cui, Chuanming Wang, Mengshi Qi, Huadong Ma
- Abstract要約: MDPR(Multual Distillation Learning for Person Re-identification)という新しい手法を提案する。
本手法は,一様水平分割戦略により局所特徴を抽出するハードコンテンツブランチと,前景と背景を動的に区別するソフトコンテンツブランチの2つを含む。
提案手法はDukeC-reIDデータセット上のmAP/Rank-1の8.7%/94.4%の驚くべき値を得る。
- 参考スコア(独自算出の注目度): 27.350415735863184
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: With the rapid advancements in deep learning technologies, person
re-identification (ReID) has witnessed remarkable performance improvements.
However, the majority of prior works have traditionally focused on solving the
problem via extracting features solely from a single perspective, such as
uniform partitioning, hard attention mechanisms, or semantic masks. While these
approaches have demonstrated efficacy within specific contexts, they fall short
in diverse situations. In this paper, we propose a novel approach, Mutual
Distillation Learning For Person Re-identification (termed as MDPR), which
addresses the challenging problem from multiple perspectives within a single
unified model, leveraging the power of mutual distillation to enhance the
feature representations collectively. Specifically, our approach encompasses
two branches: a hard content branch to extract local features via a uniform
horizontal partitioning strategy and a Soft Content Branch to dynamically
distinguish between foreground and background and facilitate the extraction of
multi-granularity features via a carefully designed attention mechanism. To
facilitate knowledge exchange between these two branches, a mutual distillation
and fusion process is employed, promoting the capability of the outputs of each
branch. Extensive experiments are conducted on widely used person ReID datasets
to validate the effectiveness and superiority of our approach. Notably, our
method achieves an impressive $88.7\%/94.4\%$ in mAP/Rank-1 on the
DukeMTMC-reID dataset, surpassing the current state-of-the-art results. Our
source code is available at https://github.com/KuilongCui/MDPR.
- Abstract(参考訳): ディープラーニング技術の急速な進歩により、人の再識別(ReID)は目覚ましいパフォーマンス改善を目の当たりにした。
しかしながら、従来の研究の大半は、一様分割、ハードアテンション機構、セマンティックマスクのような単一の視点からのみ特徴を抽出することで、この問題を解決することに重点を置いてきた。
これらのアプローチは特定の状況において有効性を示しているが、様々な状況では不十分である。
本稿では,一つの統一モデルにおいて,複数の視点から課題を解決し,相互蒸留の力を利用して特徴表現を総合的に強化する,個人再同定のための相互蒸留学習(mdpr)を提案する。
具体的には、一様水平分割戦略による局所特徴抽出のためのハードコンテンツブランチと、前景と背景を動的に区別するソフトコンテンツブランチと、慎重に設計された注意機構による多彩度特徴抽出を容易にするソフトコンテンツブランチである。
これら2つのブランチ間の知識交換を容易にするため、相互蒸留と融合プロセスを採用し、各ブランチの出力能力を高める。
提案手法の有効性と優位性を検証するために,広く利用されているReIDデータセットを用いて広範囲な実験を行った。
特に,DukeMTMC-reIDデータセット上でのmAP/Rank-1の8.7\%/94.4\%が,現在の最先端結果を上回っている。
ソースコードはhttps://github.com/kuilongcui/mdprで入手できます。
関連論文リスト
- AMFD: Distillation via Adaptive Multimodal Fusion for Multispectral Pedestrian Detection [23.91870504363899]
マルチスペクトル検出におけるダブルストリームネットワークは、マルチモーダルデータに2つの異なる特徴抽出枝を用いる。
これにより、組み込みデバイスにおける多スペクトル歩行者検出が自律システムに広く採用されるのを妨げている。
本稿では,教師ネットワークの本来のモーダル特徴を完全に活用できる適応型モーダル核融合蒸留(AMFD)フレームワークについて紹介する。
論文 参考訳(メタデータ) (2024-05-21T17:17:17Z) - Deep Boosting Learning: A Brand-new Cooperative Approach for Image-Text Matching [53.05954114863596]
画像テキストマッチングのための新しいDeep Boosting Learning (DBL)アルゴリズムを提案する。
アンカーブランチは、まずデータプロパティに関する洞察を提供するために訓練される。
ターゲットブランチは、一致したサンプルと未一致のサンプルとの相対距離をさらに拡大するために、より適応的なマージン制約を同時に課される。
論文 参考訳(メタデータ) (2024-04-28T08:44:28Z) - DiffVein: A Unified Diffusion Network for Finger Vein Segmentation and
Authentication [50.017055360261665]
DiffVeinは、静脈分割と認証タスクを同時に処理する統合拡散モデルベースのフレームワークである。
これら2つのブランチ間の機能相互作用を改善するために,2つの特別なモジュールを導入する。
このようにして、我々のフレームワークは拡散とセグメンテーションの埋め込みの間の動的相互作用を可能にする。
論文 参考訳(メタデータ) (2024-02-03T06:49:42Z) - Learning Progressive Modality-shared Transformers for Effective
Visible-Infrared Person Re-identification [27.75907274034702]
我々は,能率VI-ReIDのためのPMT(Progressive Modality-Shared Transformer)という新しいディープラーニングフレームワークを提案する。
モダリティギャップの負の効果を低減するために、まず、グレースケールの画像を補助的なモダリティとして捉え、進歩的な学習戦略を提案する。
クラス内差が大きく,クラス間差が少ない問題に対処するために,識別中心損失を提案する。
論文 参考訳(メタデータ) (2022-12-01T02:20:16Z) - Weakly Supervised Semantic Segmentation via Alternative Self-Dual
Teaching [82.71578668091914]
本稿では,分類とマスク・リファインメント・コンポーネントを統合された深層モデルに組み込む,コンパクトな学習フレームワークを確立する。
本稿では,高品質な知識相互作用を促進するために,新たな自己双対学習(ASDT)機構を提案する。
論文 参考訳(メタデータ) (2021-12-17T11:56:56Z) - Cross Attentional Audio-Visual Fusion for Dimensional Emotion Recognition [13.994609732846344]
最も効果的な感情認識技術は、多種多様な情報ソースを効果的に活用する。
本稿では,音声視覚(A-V)モダリティ間で有意な特徴を抽出するための相互注意型融合手法を提案する。
その結果、我々のA-V融合モデルは、最先端の融合アプローチよりも優れたコスト効率のアプローチであることが示唆された。
論文 参考訳(メタデータ) (2021-11-09T16:01:56Z) - A cross-modal fusion network based on self-attention and residual
structure for multimodal emotion recognition [7.80238628278552]
マルチモーダル感情認識のための自己注意構造と残像構造(CFN-SR)に基づく新たなクロスモーダル融合ネットワークを提案する。
提案手法の有効性を検証するため,RAVDESSデータセットを用いて実験を行った。
実験結果から,提案したCFN-SRは最先端技術を実現し,精度が75.76%,パラメータが26.30Mであることが確認された。
論文 参考訳(メタデータ) (2021-11-03T12:24:03Z) - Diverse Knowledge Distillation for End-to-End Person Search [81.4926655119318]
人物検索は、画像ギャラリーから特定の人物をローカライズし識別することを目的としている。
最近の手法は2つのグループ、すなわち2段階とエンドツーエンドのアプローチに分類できる。
ボトルネックを解消するために、多様な知識蒸留を備えたシンプルで強力なエンドツーエンドネットワークを提案します。
論文 参考訳(メタデータ) (2020-12-21T09:04:27Z) - Robust Person Re-Identification through Contextual Mutual Boosting [77.1976737965566]
本研究では,歩行者の局地化を目的としたコンテキスト相互ブースティングネットワーク(CMBN)を提案する。
歩行者をローカライズし、文脈情報と統計的推測を効果的に活用することで特徴を再検討する。
ベンチマークの実験は、最先端のアーキテクチャと比較してアーキテクチャの優位性を示している。
論文 参考訳(メタデータ) (2020-09-16T06:33:35Z) - Dynamic Dual-Attentive Aggregation Learning for Visible-Infrared Person
Re-Identification [208.1227090864602]
Visible-infrared person re-identification (VI-ReID) は、歩行者検索の課題である。
既存のVI-ReID法は、識別可能性に制限があり、ノイズの多い画像に対して弱いロバスト性を持つグローバル表現を学習する傾向にある。
そこで我々は,VI-ReIDのための動的二段階集合(DDAG)学習法を提案する。
論文 参考訳(メタデータ) (2020-07-18T03:08:13Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。