論文の概要: A heterogeneous branch and multi-level classification network for person
re-identification
- arxiv url: http://arxiv.org/abs/2006.01367v1
- Date: Tue, 2 Jun 2020 03:34:50 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-26 00:39:55.380913
- Title: A heterogeneous branch and multi-level classification network for person
re-identification
- Title(参考訳): 人物再識別のための異種分岐と多段階分類網
- Authors: Jiabao Wang, Yang Li, Yangshuo Zhang, Zhuang Miao, Rui Zhang
- Abstract要約: 本稿では、事前学習されたResNet-50モデルに基づいて設計した、新しい異種分岐・多レベル分類ネットワーク(HBMCN)を提案する。
CNの教師付き学習において,複数の高層層から多層特徴を抽出し,人を表現することを目的とした,新しい多層分類関数を提案する。
- 参考スコア(独自算出の注目度): 13.868524909296553
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Convolutional neural networks with multiple branches have recently been
proved highly effective in person re-identification (re-ID). Researchers design
multi-branch networks using part models, yet they always attribute the
effectiveness to multiple parts. In addition, existing multi-branch networks
always have isomorphic branches, which lack structural diversity. In order to
improve this problem, we propose a novel Heterogeneous Branch and Multi-level
Classification Network (HBMCN), which is designed based on the pre-trained
ResNet-50 model. A new heterogeneous branch, SE-Res-Branch, is proposed based
on the SE-Res module, which consists of the Squeeze-and-Excitation block and
the residual block. Furthermore, a new multi-level classification joint
objective function is proposed for the supervised learning of HBMCN, whereby
multi-level features are extracted from multiple high-level layers and
concatenated to represent a person. Based on three public person re-ID
benchmarks (Market1501, DukeMTMC-reID and CUHK03), experimental results show
that the proposed HBMCN reaches 94.4%, 85.7% and 73.8% in Rank-1, and 85.7%,
74.6% and 69.0% in mAP, achieving a state-of-the-art performance. Further
analysis demonstrates that the specially designed heterogeneous branch performs
better than an isomorphic branch, and multi-level classification provides more
discriminative features compared to single-level classification. As a result,
HBMCN provides substantial further improvements in person re-ID tasks.
- Abstract(参考訳): 複数の枝を持つ畳み込みニューラルネットワークは、最近、人物の再識別(re-ID)に非常に効果的であることが証明されている。
研究者はパーツモデルを使ってマルチブランチネットワークを設計するが、その有効性は常に複数の部品に比例する。
さらに、既存のマルチブランチネットワークは常に構造的多様性に欠ける同型分岐を持つ。
この問題を解決するために,事前学習されたResNet-50モデルに基づいて設計した新しい異種分岐・多レベル分類ネットワーク(HBMCN)を提案する。
新しい異種分岐であるSE-Res-Branchは、Squeeze-and-Excitationブロックと残留ブロックからなるSE-Resモジュールに基づいて提案されている。
さらに,hbmcnの教師付き学習において,複数の高レベル層から多レベル特徴を抽出し,結合して人を表す新しい多レベル分類統合目的関数を提案する。
3つの一般人のre-IDベンチマーク(Market1501、DukeMTMC-reID、CUHK03)に基づいて、提案されたHBMCNは94.4%、85.7%、73.8%のランク-1、85.7%、74.6%、69.0%のmAPに到達し、最先端のパフォーマンスを達成した。
さらに解析により、特別に設計された異種分岐は同型分岐よりも優れた性能を示し、多層分類は単層分類と比較してより差別的な特徴を提供する。
その結果、HBMCNは人物のリIDタスクを大幅に改善した。
関連論文リスト
- Branches, Assemble! Multi-Branch Cooperation Network for Large-Scale Click-Through Rate Prediction at Taobao [49.11242099449315]
MBCnet(Multi-Branch Cooperation Network)を紹介する。
MBCnetは、Expert-based Feature Grouping and Crossing (EFGC)、低ランククロスネットブランチ、Deepブランチの3つのブランチで構成されている。
大規模産業データセットとオンラインA/Bテストの実験では、MBCnetのパフォーマンスが向上し、CTRが0.09ポイント、取引が1.49%、GMVが1.62%向上した。
論文 参考訳(メタデータ) (2024-11-20T06:10:06Z) - Low-Cost Self-Ensembles Based on Multi-Branch Transformation and Grouped Convolution [20.103367702014474]
本稿では,高い効率と分類性能を実現するために,低コストなアンサンブル学習を提案する。
学習には,教師の信号として出力のアンサンブルを用いた知識蒸留を用いる。
実験結果から,本手法は最先端の分類精度と精度の高い不確実性推定性能を実現することが示された。
論文 参考訳(メタデータ) (2024-08-05T08:36:13Z) - Strength in Diversity: Multi-Branch Representation Learning for Vehicle
Re-Identification [1.415880606410688]
本稿では、車両再識別(V-ReID)を改善するための効率的で軽量なマルチブランチ深層構造を提案する。
特徴の多様性と特徴の識別性を向上するマルチブランチアーキテクチャを設計するためのグループ畳み込みとロスブランチ分割の組み合わせを提案する。
論文 参考訳(メタデータ) (2023-10-02T12:03:05Z) - Dynamic Perceiver for Efficient Visual Recognition [87.08210214417309]
特徴抽出手順と早期分類タスクを分離する動的知覚器(Dyn-Perceiver)を提案する。
特徴ブランチは画像の特徴を抽出し、分類ブランチは分類タスクに割り当てられた遅延コードを処理する。
早期出口は分類枝に限られており、低レベルの特徴において線形分離性は不要である。
論文 参考訳(メタデータ) (2023-06-20T03:00:22Z) - Hierarchical Forgery Classifier On Multi-modality Face Forgery Clues [61.37306431455152]
我々は,HFC-MFFD (hierarchical Forgery for Multi-modality Face Forgery Detection) を提案する。
HFC-MFFDは、マルチモーダルシナリオにおけるフォージェリー認証を強化するために、堅牢なパッチベースのハイブリッド表現を学習する。
クラス不均衡問題を緩和し、さらに検出性能を高めるために、特定の階層的な顔偽造を提案する。
論文 参考訳(メタデータ) (2022-12-30T10:54:29Z) - Bi-directional Feature Reconstruction Network for Fine-Grained Few-Shot
Image Classification [61.411869453639845]
クラス間およびクラス内変動を同時に対応できるバイコンストラクション機構を導入する。
この設計は、モデルがより微妙で差別的な特徴を探索するのに役立つ。
広範に使用されている3つのきめ細かな画像分類データセットに対する実験結果は、一貫して大幅に改善されている。
論文 参考訳(メタデータ) (2022-11-30T16:55:14Z) - Gated recurrent units and temporal convolutional network for multilabel
classification [122.84638446560663]
本研究は,マルチラベル分類を管理するための新しいアンサンブル手法を提案する。
提案手法のコアは,Adamグラデーション最適化アプローチの変種で訓練された,ゲート再帰単位と時間畳み込みニューラルネットワークの組み合わせである。
論文 参考訳(メタデータ) (2021-10-09T00:00:16Z) - Deep Miner: A Deep and Multi-branch Network which Mines Rich and Diverse
Features for Person Re-identification [7.068680287596106]
Deep Minerは、CNNが人々に関するより豊かで多様な機能を「マイニング」することを可能にする方法です。
これは、最先端(SOTA)再識別法を著しく上回るモデルを生成する。
論文 参考訳(メタデータ) (2021-02-18T13:30:23Z) - Branch-Cooperative OSNet for Person Re-Identification [12.805388189354108]
我々は、BC-OSNetと呼ばれるOSNet上のRe-IDのためのブランチ協調アーキテクチャを提案する。
BC-OSNetは3つの一般的なデータセットで最先端のパフォーマンスを達成する。
論文 参考訳(メタデータ) (2020-06-12T14:09:23Z) - Adversarial Feature Hallucination Networks for Few-Shot Learning [84.31660118264514]
Adversarial Feature Hallucination Networks (AFHN) は条件付き Wasserstein Generative Adversarial Network (cWGAN) に基づいている。
合成された特徴の識別性と多様性を促進するために、2つの新規レギュレータがAFHNに組み込まれている。
論文 参考訳(メタデータ) (2020-03-30T02:43:16Z) - Diversity-Achieving Slow-DropBlock Network for Person Re-Identification [11.907116133358022]
マルチブランチネットワークアーキテクチャを使用した人物再識別(Re-ID)の大きな課題は、IDラベル付きデータセットから多様な特徴を学習することだ。
BDB(Batch DropBlock)ネットワークは近年,グローバルブランチと機能ドロップブランチの多様性を実現するために提案されている。
提案手法は, Market-1501, DukeMTMC-reID, CUHK03 などの人気人物 Re-ID データセットに対して,BDB よりも優れていることを示す。
論文 参考訳(メタデータ) (2020-02-09T08:05:39Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。