論文の概要: Multi-scale Knowledge Distillation for Unsupervised Person
Re-Identification
- arxiv url: http://arxiv.org/abs/2204.09931v1
- Date: Thu, 21 Apr 2022 07:46:00 GMT
- ステータス: 処理完了
- システム内更新日: 2022-04-22 12:35:19.500386
- Title: Multi-scale Knowledge Distillation for Unsupervised Person
Re-Identification
- Title(参考訳): 教師なし人物再同定のためのマルチスケール知識蒸留
- Authors: Long Lan, Xiao Teng, Haoang Chi, Xiang Zhang
- Abstract要約: 教師なしの人物の再識別は、コンピュータビジョンにおける挑戦的で有望な課題である。
2つのローカルビューの機能を考慮し、マルチスケール機能を作成します。
提案手法は,ResNet-50 を用いた Market-1501 ベンチマークにおいて,85.7% の @mAP あるいは 94.3% の @Rank-1 を実現する。
- 参考スコア(独自算出の注目度): 9.70611259032691
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Unsupervised person re-identification is a challenging and promising task in
the computer vision. Nowadays unsupervised person re-identification methods
have achieved great improvements by training with pseudo labels. However, the
appearance and label noise are less explicitly studied in the unsupervised
manner. To relieve the effects of appearance noise the global features
involved, we also take into account the features from two local views and
produce multi-scale features. We explore the knowledge distillation to filter
label noise, Specifically, we first train a teacher model from noisy pseudo
labels in a iterative way, and then use the teacher model to guide the learning
of our student model. In our setting, the student model could converge fast in
the supervision of the teacher model thus reduce the interference of noisy
labels as the teacher model greatly suffered. After carefully handling the
noises in the feature learning, Our multi-scale knowledge distillation are
proven to be very effective in the unsupervised re-identification. Extensive
experiments on three popular person re-identification datasets demonstrate the
superiority of our method. Especially, our approach achieves a state-of-the-art
accuracy 85.7% @mAP or 94.3% @Rank-1 on the challenging Market-1501 benchmark
with ResNet-50 under the fully unsupervised setting.
- Abstract(参考訳): 教師なしの人物の再識別は、コンピュータビジョンにおける挑戦的で有望な課題である。
現在、教師なしの人物再同定手法は擬似ラベルの訓練によって大きな改善を遂げている。
しかし、外見やラベルノイズは教師なしの方法では明らかに研究されていない。
グローバルな特徴の外観ノイズの影響を緩和するため,2つのローカルな視点から特徴を考慮し,マルチスケールな特徴を生成する。
ラベルノイズをフィルタする知識蒸留法について検討し, 教師モデルから教師モデルを反復的に学習し, 教師モデルを用いて生徒モデルの学習を指導する。
この設定では,教師モデルは教師モデルの監督において急速に収束し,教師モデルが大きく苦しむため,騒音ラベルの干渉を低減することができる。
特徴学習におけるノイズを慎重に処理した後、我々のマルチスケール知識蒸留は教師なしの再同定に非常に有効であることが証明された。
3つの人気人物再同定データセットに対する大規模な実験により,本手法の優位性を実証した。
特に,ResNet-50 を用いた Market-1501 ベンチマークでは,85.7% の @mAP あるいは 94.3% の @Rank-1 が完全に教師なしの環境で達成されている。
関連論文リスト
- Pseudo-label Correction for Instance-dependent Noise Using
Teacher-student Framework [1.2618527387900083]
P-LC (pseudo-label correct) と呼ばれる新しい教師支援型フレームワークを提案する。
提案手法では,教師ネットワークを三重エンコーダに再構成し,三重項損失を利用して擬似ラベル補正システムを構築する。
MNIST、Fashion-MNIST、SVHNの実験では、P-LCは全てのノイズレベルにわたって既存の最先端手法よりも優れた性能を示した。
論文 参考訳(メタデータ) (2023-11-24T00:36:17Z) - Exploring Inconsistent Knowledge Distillation for Object Detection with
Data Augmentation [66.25738680429463]
物体検出のための知識蒸留(KD)は、教師モデルから知識を伝達することで、コンパクトな検出器を訓練することを目的としている。
教師モデルの反直感的知覚に固有の知識を蒸留することを目的とした,一貫性のない知識蒸留(IKD)を提案する。
本手法は, 1段, 2段, アンカーフリーの物体検出器において, 最先端のKDベースラインより優れる。
論文 参考訳(メタデータ) (2022-09-20T16:36:28Z) - Better Supervisory Signals by Observing Learning Paths [10.044413937134237]
本稿では, ラベルスムース化と知識蒸留という2つの既存のラベル精錬法について, 提案基準の観点から解説する。
トレーニングサンプル毎に,学習経路,すなわちトレーニング中のモデル予測の軌跡を観察する。
モデルは、おもちゃと実際のデータセットの両方で発生する"zig-zag"学習パスを通じて、自発的に"bad"ラベルを洗練できる。
論文 参考訳(メタデータ) (2022-03-04T18:31:23Z) - Anomaly Detection via Reverse Distillation from One-Class Embedding [2.715884199292287]
教師エンコーダと生徒デコーダからなる新しいT-Sモデルを提案する。
生画像を直接受信する代わりに、学生ネットワークは教師モデルの1クラス埋め込みを入力として取り込む。
さらに、T-Sモデルにトレーニング可能な1クラスボトルネック埋め込みモジュールを導入する。
論文 参考訳(メタデータ) (2022-01-26T01:48:37Z) - Distantly-Supervised Named Entity Recognition with Noise-Robust Learning
and Language Model Augmented Self-Training [66.80558875393565]
遠距離ラベル付きデータのみを用いて、名前付きエンティティ認識(NER)モデルを訓練する際の課題について検討する。
本稿では,新しい損失関数と雑音ラベル除去ステップからなるノイズロスバスト学習手法を提案する。
提案手法は,既存の遠隔教師付きNERモデルよりも優れた性能を実現する。
論文 参考訳(メタデータ) (2021-09-10T17:19:56Z) - Unsupervised Noisy Tracklet Person Re-identification [100.85530419892333]
本稿では,非照合トラックレットデータから識別的人物再識別モデルを訓練できる選択的トラックレット学習(STL)手法を提案する。
これにより、カメラビュー全体で人物の画像/トラックレットの真のマッチングペアを完全にラベル付けする面倒でコストのかかるプロセスが回避されます。
提案手法は生トラックレットの任意のノイズデータに対して特に頑健であるため,制約のない追跡データから識別モデル学習にスケーラブルである。
論文 参考訳(メタデータ) (2021-01-16T07:31:00Z) - SEED: Self-supervised Distillation For Visual Representation [34.63488756535054]
SEED(Self-SupErvised Distillation)と呼ばれる新しい学習パラダイムを提案し、自己監督的な方法でその表現的知識を小さなアーキテクチャ(学生)に転送します。
私達はSEEDが下流の仕事の小さいネットワークの性能を劇的に高めることを示します。
論文 参考訳(メタデータ) (2021-01-12T20:04:50Z) - Distilling Object Detectors with Task Adaptive Regularization [97.52935611385179]
現在の最先端のオブジェクト検出器は高い計算コストを犠牲にしており、ローエンドデバイスへのデプロイが困難である。
より大規模な教師モデルから知識を伝達することで、より小さな学生ネットワークを訓練することを目的とした知識蒸留は、モデル小型化のための有望な解決策の1つである。
論文 参考訳(メタデータ) (2020-06-23T15:58:22Z) - Knowledge Distillation Meets Self-Supervision [109.6400639148393]
知識蒸留では、教師ネットワークから「暗黒の知識」を抽出し、学生ネットワークの学習を指導する。
一見異なる自己超越的なタスクが、単純だが強力なソリューションとして機能することを示します。
これらの自己超越信号の類似性を補助的タスクとして活用することにより、隠された情報を教師から生徒に効果的に転送することができる。
論文 参考訳(メタデータ) (2020-06-12T12:18:52Z) - Learning Not to Learn in the Presence of Noisy Labels [104.7655376309784]
ギャンブラーの損失と呼ばれる新しい種類の損失関数は、様々なレベルの汚職にまたがってノイズをラベル付けするのに強い堅牢性をもたらすことを示す。
この損失関数によるトレーニングは、ノイズのあるラベルを持つデータポイントでの学習を"維持"することをモデルに促すことを示す。
論文 参考訳(メタデータ) (2020-02-16T09:12:27Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。