論文の概要: Multi-task Learning with Coarse Priors for Robust Part-aware Person
Re-identification
- arxiv url: http://arxiv.org/abs/2003.08069v3
- Date: Fri, 7 May 2021 07:39:23 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-22 10:15:46.257493
- Title: Multi-task Learning with Coarse Priors for Robust Part-aware Person
Re-identification
- Title(参考訳): ロバストな部分認識者再識別のためのマルチタスク学習
- Authors: Changxing Ding, Kan Wang, Pengfei Wang, and Dacheng Tao
- Abstract要約: Multi-task Part-Aware Network (MPN) は歩行者画像から意味的に整列した部分レベルの特徴を抽出するように設計されている。
MPNは、トレーニング段階におけるMTL(Multi-task Learning)を介して、身体部分の不整合問題を解決する。
MPNは、最先端のアプローチをかなりのマージンで一貫して上回っている。
- 参考スコア(独自算出の注目度): 79.33809815035127
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Part-level representations are important for robust person re-identification
(ReID), but in practice feature quality suffers due to the body part
misalignment problem. In this paper, we present a robust, compact, and
easy-to-use method called the Multi-task Part-aware Network (MPN), which is
designed to extract semantically aligned part-level features from pedestrian
images. MPN solves the body part misalignment problem via multi-task learning
(MTL) in the training stage. More specifically, it builds one main task (MT)
and one auxiliary task (AT) for each body part on the top of the same backbone
model. The ATs are equipped with a coarse prior of the body part locations for
training images. ATs then transfer the concept of the body parts to the MTs via
optimizing the MT parameters to identify part-relevant channels from the
backbone model. Concept transfer is accomplished by means of two novel
alignment strategies: namely, parameter space alignment via hard parameter
sharing and feature space alignment in a class-wise manner. With the aid of the
learned high-quality parameters, MTs can independently extract semantically
aligned part-level features from relevant channels in the testing stage. MPN
has three key advantages: 1) it does not need to conduct body part detection in
the inference stage; 2) its model is very compact and efficient for both
training and testing; 3) in the training stage, it requires only coarse priors
of body part locations, which are easy to obtain. Systematic experiments on
four large-scale ReID databases demonstrate that MPN consistently outperforms
state-of-the-art approaches by significant margins. Code is available at
https://github.com/WangKan0128/MPN.
- Abstract(参考訳): パートレベルの表現は、堅牢な人物再識別(ReID)にとって重要であるが、実際には身体部分の誤認識の問題によって特徴的品質が損なわれる。
本稿では,歩行者画像から意味的に整合した部分レベルの特徴を抽出するために,MPN(Multi-task Part-aware Network)と呼ばれる頑健でコンパクトで使いやすい手法を提案する。
mpnは、訓練段階におけるマルチタスク学習(mtl)により、身体部分の誤用問題を解決する。
具体的には、1つのメインタスク(MT)と1つの補助タスク(AT)を同じバックボーンモデルの上部に構築する。
ATは、トレーニング用のボディ部分の位置の前に粗さを備えている。
ATはMTパラメータを最適化し、背骨モデルから部分関連チャネルを識別することで、身体部分の概念をMTに転送する。
概念伝達は2つの新しいアライメント戦略によって達成される:すなわち、ハードパラメータ共有によるパラメータ空間アライメントと、クラスごとに特徴空間アライメントである。
学習した高品質パラメータの助けを借りて、MTはテスト段階で関連するチャネルから意味的に整合した部分レベルの特徴を独立に抽出することができる。
MPNには3つの大きな利点がある。
1) 推論段階において体部検出を行う必要はない。
2)モデルは、トレーニングとテストの両方に非常にコンパクトで効率的です。
3) トレーニング段階では, 身体部位の位置の粗い先だけが必要であり, 入手が容易である。
4つの大規模ReIDデータベースのシステム実験により、MPNは一定のマージンで最先端のアプローチを一貫して上回ることを示した。
コードはhttps://github.com/WangKan0128/MPNで入手できる。
関連論文リスト
- MTP: Advancing Remote Sensing Foundation Model via Multi-Task Pretraining [73.81862342673894]
ファンデーションモデルは、様々な画像解釈タスクを強化することで、リモートセンシング(RS)のランドスケープを再構築した。
事前訓練されたモデルを下流のタスクに転送することは、イメージ分類やオブジェクト識別タスクとして事前訓練の定式化によるタスクの相違に遭遇する可能性がある。
SAMRSデータセット上で、セマンティックセグメンテーション、インスタンスセグメンテーション、回転オブジェクト検出を含むマルチタスクによる事前トレーニングを行う。
我々のモデルは、シーン分類、水平・回転物体検出、セマンティックセグメンテーション、変化検出など、様々なRS下流タスクに基づいて微調整される。
論文 参考訳(メタデータ) (2024-03-20T09:17:22Z) - S$^3$M-Net: Joint Learning of Semantic Segmentation and Stereo Matching
for Autonomous Driving [40.305452898732774]
S$3$M-Netはセマンティックセグメンテーションとステレオマッチングを同時に行うために開発された新しい共同学習フレームワークである。
S$3$M-Netは、両方のタスク間でRGBイメージから抽出された特徴を共有し、全体的なシーン理解能力が改善された。
論文 参考訳(メタデータ) (2024-01-21T06:47:33Z) - VMT-Adapter: Parameter-Efficient Transfer Learning for Multi-Task Dense
Scene Understanding [6.816428690763012]
大規模な事前訓練モデルを活用するための標準的なアプローチは、下流タスクのすべてのモデルパラメータを微調整することである。
本稿では,複数のタスクから知識を共有するVMT-Adapterを提案する。
また、ダウンプロジェクションとアッププロジェクションの間で共有パラメータを学習することで、トレーニング可能なパラメータをさらに削減するVMT-Adapter-Liteを提案する。
論文 参考訳(メタデータ) (2023-12-14T08:25:04Z) - Single-stage Multi-human Parsing via Point Sets and Center-based Offsets [28.70266615856546]
本稿では,マルチヒューマン解析問題を2つの微粒なサブプロブレムに分解する,高性能なシングルステージマルチヒューマンパーシングアーキテクチャを提案する。
提案手法では,より少ない訓練エポックとより複雑なモデルアーキテクチャを必要とする。
特に、提案手法では、トレーニングのエポックを少なくし、より複雑なモデルアーキテクチャを必要とする。
論文 参考訳(メタデータ) (2023-04-22T09:30:50Z) - Frequency Disentangled Learning for Segmentation of Midbrain Structures
from Quantitative Susceptibility Mapping Data [1.9150304734969674]
深層モデルでは、ターゲット関数を低周波数から高周波数に適合させる傾向がある。
ディープセグメンテーションモデルのトレーニングに十分なサンプルがない場合が多い。
周波数領域の絡み合いに基づく新しいトレーニング手法を提案する。
論文 参考訳(メタデータ) (2023-02-25T04:30:11Z) - Locally Aware Piecewise Transformation Fields for 3D Human Mesh
Registration [67.69257782645789]
本論文では,3次元変換ベクトルを学習し,提案空間内の任意のクエリ点をリザーブ空間内の対応する位置にマップする部分変換場を提案する。
パラメトリックモデルにネットワークのポーズを合わせることで、特に極端なポーズにおいて、より優れた登録品質が得られることを示す。
論文 参考訳(メタデータ) (2021-04-16T15:16:09Z) - Decoupled and Memory-Reinforced Networks: Towards Effective Feature
Learning for One-Step Person Search [65.51181219410763]
歩行者検出と識別サブタスクを1つのネットワークで処理するワンステップ方式を開発しました。
現在のワンステップアプローチには2つの大きな課題があります。
本稿では,これらの問題を解決するために,分離メモリ強化ネットワーク(DMRNet)を提案する。
論文 参考訳(メタデータ) (2021-02-22T06:19:45Z) - Batch Coherence-Driven Network for Part-aware Person Re-Identification [79.33809815035127]
既存のパートアウェアの人物再識別方法は、通常、ボディ部分の検出と部分レベルの特徴抽出という2つのステップを使用する。
トレーニングフェーズとテストフェーズの両方で身体の一部をバイパスし,セマンティックに整合した機能を実現するNetworkBCDNetを提案する。
論文 参考訳(メタデータ) (2020-09-21T09:04:13Z) - MetricUNet: Synergistic Image- and Voxel-Level Learning for Precise CT
Prostate Segmentation via Online Sampling [66.01558025094333]
本稿では,前立腺領域を高速に局在させる第1段階と,前立腺領域を正確に区分する第2段階の2段階のフレームワークを提案する。
マルチタスクネットワークにおけるボクセルワイドサンプリングによる新しいオンラインメトリック学習モジュールを提案する。
本手法は,従来のクロスエントロピー学習法やDice損失学習法と比較して,より代表的なボクセルレベルの特徴を効果的に学習することができる。
論文 参考訳(メタデータ) (2020-05-15T10:37:02Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。