論文の概要: Beyond Triplet Loss: Person Re-identification with Fine-grained
Difference-aware Pairwise Loss
- arxiv url: http://arxiv.org/abs/2009.10295v1
- Date: Tue, 22 Sep 2020 03:04:12 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-15 23:00:13.500571
- Title: Beyond Triplet Loss: Person Re-identification with Fine-grained
Difference-aware Pairwise Loss
- Title(参考訳): 三重項損失を超えて:細粒度差分認識による人物再同定
- Authors: Cheng Yan, Guansong Pang, Xiao Bai, Jun Zhou, Lin Gu
- Abstract要約: 本稿では,ReIDモデルにおいて,小さな差の像に対して指数ペナル化を適応的に実施し,大きな差の像に対して有界ペナル化を行うことにより,微細な特徴を学習できる新しいペアワイズ・ロス関数を提案する。
4つのベンチマークデータセットによる実験結果から、提案された損失は、多くの人気損失関数を大きなマージンで大幅に上回っていることが示された。
- 参考スコア(独自算出の注目度): 22.85779225315
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Person Re-IDentification (ReID) aims at re-identifying persons from different
viewpoints across multiple cameras. Capturing the fine-grained appearance
differences is often the key to accurate person ReID, because many identities
can be differentiated only when looking into these fine-grained differences.
However, most state-of-the-art person ReID approaches, typically driven by a
triplet loss, fail to effectively learn the fine-grained features as they are
focused more on differentiating large appearance differences. To address this
issue, we introduce a novel pairwise loss function that enables ReID models to
learn the fine-grained features by adaptively enforcing an exponential
penalization on the images of small differences and a bounded penalization on
the images of large differences. The proposed loss is generic and can be used
as a plugin to replace the triplet loss to significantly enhance different
types of state-of-the-art approaches. Experimental results on four benchmark
datasets show that the proposed loss substantially outperforms a number of
popular loss functions by large margins; and it also enables significantly
improved data efficiency.
- Abstract(参考訳): Person Re-IDentification (ReID) は、複数のカメラで異なる視点から人物を識別することを目的としている。
細粒度の違いを捉えることは、正確な人物のReIDにとって鍵となることが多い。
しかし、ほとんどの最先端のReIDアプローチは、典型的にはトリプルトロスによって駆動され、大きな外観の違いの差別化に重点を置いているため、きめ細かい特徴を効果的に学習することができない。
そこで本研究では,reidモデルによる細粒度特徴の学習を可能にする新しいペアワイズ損失関数を導入し,小差分画像に指数関数的ペナリゼーションを適応的に実施し,大差分画像に有界ペナリゼーションを付与する。
提案された損失は汎用的であり、様々なタイプの最先端アプローチを強化するためにトリプルト損失を置き換えるプラグインとして使用できる。
4つのベンチマークデータセットでの実験的結果は、提案する損失が多くの人気のある損失関数を大きく上回っており、データ効率も大幅に向上していることを示している。
関連論文リスト
- Fine-grained Recognition with Learnable Semantic Data Augmentation [68.48892326854494]
きめ細かい画像認識は、長年続くコンピュータビジョンの課題である。
本稿では,識別領域損失問題を軽減するため,特徴レベルのトレーニングデータを多様化することを提案する。
本手法は,いくつかの人気分類ネットワーク上での一般化性能を著しく向上させる。
論文 参考訳(メタデータ) (2023-09-01T11:15:50Z) - Self-similarity Driven Scale-invariant Learning for Weakly Supervised
Person Search [66.95134080902717]
自己相似性駆動型スケール不変学習(SSL)という新しいワンステップフレームワークを提案する。
本稿では,ネットワークを前景と学習スケール不変の機能に集中させるための,マルチスケール・エクステンプラー・ブランチを提案する。
PRWおよびCUHK-SYSUデータベースの実験により,本手法の有効性が示された。
論文 参考訳(メタデータ) (2023-02-25T04:48:11Z) - Learning Invariance from Generated Variance for Unsupervised Person
Re-identification [15.096776375794356]
従来のデータ拡張をGAN(Generative Adversarial Network)に置き換えることを提案する。
3次元メッシュガイド型人物画像生成器は、人物画像をID関連およびID非関連の特徴に分解するために提案される。
生成モジュールとコントラストモジュールを共同でトレーニングすることにより、主流の大規模ベンチマーク上で、最先端の非教師なしのReID性能を実現する。
論文 参考訳(メタデータ) (2023-01-02T15:40:14Z) - Unified Loss of Pair Similarity Optimization for Vision-Language
Retrieval [35.141916376979836]
視覚言語検索には2つの一般的な損失関数、すなわち三重項損失と対照的な学習損失がある。
本稿では,視覚言語検索のためのペア類似度最適化の統一的損失を提案する。
論文 参考訳(メタデータ) (2022-09-28T07:01:22Z) - A Decidability-Based Loss Function [2.5919311269669003]
生体認証問題は、ディープラーニングモデルを使用して画像から特徴を抽出する。
本研究では,検証ルーチンの埋め込み品質を向上させるために,決定可能性指数に基づく損失関数を提案する。
提案手法は,4つのベンチマークにおいて,ソフトマックス(クロスエントロピー),トリプレットソフトハード,マルチ類似性損失に対して比較される。
論文 参考訳(メタデータ) (2021-09-12T14:26:27Z) - Unsupervised Pre-training for Person Re-identification [90.98552221699508]
大規模無ラベル人物再識別(Re-ID)データセットLUPersonを提案する。
学習者のRe-ID特徴表現の一般化能力を向上させるために,教師なし事前学習を初めて行おうとする。
論文 参考訳(メタデータ) (2020-12-07T14:48:26Z) - Attribute-aware Identity-hard Triplet Loss for Video-based Person
Re-identification [51.110453988705395]
ビデオベースの人物識別(Re-ID)は重要なコンピュータビジョンタスクである。
属性認識型ID-hard Triplet Loss (AITL) と呼ばれる新しいメトリクス学習手法を提案する。
ビデオベースのRe-IDの完全なモデルを実現するために,Attribute-driven Spatio-Temporal Attention (ASTA) 機構を備えたマルチタスクフレームワークを提案する。
論文 参考訳(メタデータ) (2020-06-13T09:15:38Z) - Beyond Triplet Loss: Meta Prototypical N-tuple Loss for Person
Re-identification [118.72423376789062]
マルチクラス分類損失(N-tuple loss)を導入し、クエリごとの最適化のために複数の(N)インスタンスを共同で検討する。
マルチクラス分類を組み込んだモデルにより,ベンチマーク対象のReIDデータセット上での最先端性能を実現する。
論文 参考訳(メタデータ) (2020-06-08T23:34:08Z) - Real-world Person Re-Identification via Degradation Invariance Learning [111.86722193694462]
現実のシナリオにおける人物再識別(Re-ID)は通常、低解像度、弱い照明、ぼやけ、悪天候などの様々な劣化要因に悩まされる。
本稿では,現実世界のRe-IDを対象とした劣化不変学習フレームワークを提案する。
自己教師付き不整合表現学習戦略を導入することにより,個人性に関連する頑健な特徴を同時に抽出することができる。
論文 参考訳(メタデータ) (2020-04-10T07:58:50Z) - Triplet Online Instance Matching Loss for Person Re-identification [14.233828198522266]
本稿では, ハードサンプルに重きを置くトリプルトオンラインインスタンスマッチング(TOIM)損失関数を提案し, 人物ReIDの精度を効果的に向上する。
OIM損失とトリプルト損失の利点を組み合わせ、バッチ構築のプロセスを簡単にする。
共同検出および識別タスクを処理する場合、オンラインでトレーニングすることができる。
論文 参考訳(メタデータ) (2020-02-24T21:55:56Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。