論文の概要: Triplet Online Instance Matching Loss for Person Re-identification
- arxiv url: http://arxiv.org/abs/2002.10560v1
- Date: Mon, 24 Feb 2020 21:55:56 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-29 04:12:55.455031
- Title: Triplet Online Instance Matching Loss for Person Re-identification
- Title(参考訳): 個人再識別のためのトリプレットオンラインインスタンスマッチング損失
- Authors: Ye Li, Guangqiang Yin, Chunhui Liu, Xiaoyu Yang, Zhiguo Wang
- Abstract要約: 本稿では, ハードサンプルに重きを置くトリプルトオンラインインスタンスマッチング(TOIM)損失関数を提案し, 人物ReIDの精度を効果的に向上する。
OIM損失とトリプルト損失の利点を組み合わせ、バッチ構築のプロセスを簡単にする。
共同検出および識別タスクを処理する場合、オンラインでトレーニングすることができる。
- 参考スコア(独自算出の注目度): 14.233828198522266
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Mining the shared features of same identity in different scene, and the
unique features of different identity in same scene, are most significant
challenges in the field of person re-identification (ReID). Online Instance
Matching (OIM) loss function and Triplet loss function are main methods for
person ReID. Unfortunately, both of them have drawbacks. OIM loss treats all
samples equally and puts no emphasis on hard samples. Triplet loss processes
batch construction in a complicated and fussy way and converges slowly. For
these problems, we propose a Triplet Online Instance Matching (TOIM) loss
function, which lays emphasis on the hard samples and improves the accuracy of
person ReID effectively. It combines the advantages of OIM loss and Triplet
loss and simplifies the process of batch construction, which leads to a more
rapid convergence. It can be trained on-line when handle the joint detection
and identification task. To validate our loss function, we collect and annotate
a large-scale benchmark dataset (UESTC-PR) based on images taken from
surveillance cameras, which contains 499 identities and 60,437 images. We
evaluated our proposed loss function on Duke, Marker-1501 and UESTC-PR using
ResNet-50, and the result shows that our proposed loss function outperforms the
baseline methods by a maximum of 21.7%, including Softmax loss, OIM loss and
Triplet loss.
- Abstract(参考訳): 異なるシーンで同じアイデンティティの共有特徴と、同じシーンで異なるアイデンティティのユニークな特徴をマイニングすることは、人物再識別(reid)の分野において最も重要な課題である。
オンラインインスタンスマッチング(OIM)損失関数とトリプルト損失関数は、人物ReIDの主要な方法である。
残念なことに、両者とも欠点がある。
oimlosはすべてのサンプルを等しく処理し、ハードサンプルを強調しない。
三重項損失は複雑な複雑な方法でバッチ構成を処理し、ゆっくりと収束する。
これらの問題に対して,厳密なサンプルに重きを置くTriplet Online Instance Matching (TOIM)損失関数を提案し,その精度を効果的に向上する。
oim損失と三重項損失の利点を組み合わせることで、バッチ構築のプロセスを単純化し、より迅速な収束を実現する。
共同検出および識別タスクを扱う際に、オンラインでトレーニングすることができる。
損失関数を検証するために,499のアイデンティティと60,437のイメージを含む監視カメラから撮影した画像に基づいて,大規模ベンチマークデータセット(UESTC-PR)を収集,注釈する。
提案した損失関数をResNet-50を用いてDuke, Marker-1501, UESTC-PRで評価した結果, ソフトマックス損失, OIM損失, Triplet損失など, ベースライン法よりも21.7%高い性能を示した。
関連論文リスト
- Class Anchor Margin Loss for Content-Based Image Retrieval [97.81742911657497]
距離学習パラダイムに該当する新しいレペラ・トラクタ損失を提案するが、ペアを生成する必要がなく、直接L2メトリックに最適化する。
CBIRタスクにおいて,畳み込みアーキテクチャと変圧器アーキテクチャの両方を用いて,少数ショットおよびフルセットトレーニングの文脈で提案した目的を評価する。
論文 参考訳(メタデータ) (2023-06-01T12:53:10Z) - Adaptive Sparse Pairwise Loss for Object Re-Identification [25.515107212575636]
ペアワイズ損失は、強力なReIDネットワークのトレーニングにおいて重要な役割を果たす。
スパースペアワイズ(SP)ロスと呼ばれる新しい損失パラダイムを提案する。
また,SP損失と適応型AdaSP損失は,他のペア損失よりも優れていた。
論文 参考訳(メタデータ) (2023-03-31T17:59:44Z) - Learning Feature Recovery Transformer for Occluded Person
Re-identification [71.18476220969647]
本稿では,FRT(Feature Recovery Transformer)と呼ばれる2つの課題を同時に解決する手法を提案する。
特徴マッチング時のノイズの干渉を低減するため,両画像に現れる可視領域に着目し,類似性を計算するための可視グラフを開発した。
2つ目の課題は、グラフの類似性に基づいて、各クエリ画像に対して、ギャラリー内の$k$-nearestの隣人の特徴セットを利用して、完全な特徴を復元するリカバリトランスフォーマを提案することである。
論文 参考訳(メタデータ) (2023-01-05T02:36:16Z) - Unified Loss of Pair Similarity Optimization for Vision-Language
Retrieval [35.141916376979836]
視覚言語検索には2つの一般的な損失関数、すなわち三重項損失と対照的な学習損失がある。
本稿では,視覚言語検索のためのペア類似度最適化の統一的損失を提案する。
論文 参考訳(メタデータ) (2022-09-28T07:01:22Z) - Do Lessons from Metric Learning Generalize to Image-Caption Retrieval? [67.45267657995748]
半ハードな負のトリプルト損失は、スクラッチから最適化されたイメージキャプション検索(ICR)メソッドのデファクト選択となっている。
近年のメトリクス学習の進歩により、画像検索や表現学習といったタスクにおいて、三重項損失を上回る新たな損失関数が生まれている。
これらの結果は,2つのICR法における3つの損失関数を比較することで,ICRの設定に一般化するかどうかを問う。
論文 参考訳(メタデータ) (2022-02-14T15:18:00Z) - A Decidability-Based Loss Function [2.5919311269669003]
生体認証問題は、ディープラーニングモデルを使用して画像から特徴を抽出する。
本研究では,検証ルーチンの埋め込み品質を向上させるために,決定可能性指数に基づく損失関数を提案する。
提案手法は,4つのベンチマークにおいて,ソフトマックス(クロスエントロピー),トリプレットソフトハード,マルチ類似性損失に対して比較される。
論文 参考訳(メタデータ) (2021-09-12T14:26:27Z) - Unified Batch All Triplet Loss for Visible-Infrared Person
Re-identification [33.23261883419256]
バッチハードトリプルトロスは、個人再識別タスクで広く使われているが、可視赤外線人物再識別タスクではうまく機能しない。
そこで本研究では,最も難しい三重項ではなく,全ての三重項を抽出して最適化する,全三重項選択方式を提案する。
また、画像ベクトル間のコサイン距離を協調的に最適化するために、Unified Batch All Triplet lossとCosine Softmax lossを導入する。
論文 参考訳(メタデータ) (2021-03-08T08:58:52Z) - A Unified Framework of Surrogate Loss by Refactoring and Interpolation [65.60014616444623]
勾配勾配を有する深層ネットワークのトレーニングにおいて,サロゲート損失を発生させる統一フレームワークUniLossを導入する。
3つのタスクと4つのデータセットに対するUniLossの有効性を検証する。
論文 参考訳(メタデータ) (2020-07-27T21:16:51Z) - Attribute-aware Identity-hard Triplet Loss for Video-based Person
Re-identification [51.110453988705395]
ビデオベースの人物識別(Re-ID)は重要なコンピュータビジョンタスクである。
属性認識型ID-hard Triplet Loss (AITL) と呼ばれる新しいメトリクス学習手法を提案する。
ビデオベースのRe-IDの完全なモデルを実現するために,Attribute-driven Spatio-Temporal Attention (ASTA) 機構を備えたマルチタスクフレームワークを提案する。
論文 参考訳(メタデータ) (2020-06-13T09:15:38Z) - Beyond Triplet Loss: Meta Prototypical N-tuple Loss for Person
Re-identification [118.72423376789062]
マルチクラス分類損失(N-tuple loss)を導入し、クエリごとの最適化のために複数の(N)インスタンスを共同で検討する。
マルチクラス分類を組み込んだモデルにより,ベンチマーク対象のReIDデータセット上での最先端性能を実現する。
論文 参考訳(メタデータ) (2020-06-08T23:34:08Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。