論文の概要: Negative Samples are at Large: Leveraging Hard-distance Elastic Loss for
Re-identification
- arxiv url: http://arxiv.org/abs/2207.09884v1
- Date: Wed, 20 Jul 2022 13:30:16 GMT
- ステータス: 処理完了
- システム内更新日: 2022-07-21 13:50:29.890727
- Title: Negative Samples are at Large: Leveraging Hard-distance Elastic Loss for
Re-identification
- Title(参考訳): 負のサンプル:再同定のためのハードレンジ弾性損失の活用
- Authors: Hyungtae Lee, Sungmin Eum, Heesung Kwon
- Abstract要約: MoReIDは、辞書に格納されている大量の負のサンプルのみを使用するように設計されている。
スケールアップされた負のサンプルセットの利点を最大限に活用するために, 新たにハードディスタンス弾性損失(He損失)を導入する。
実験により, MoReID が供給する負のサンプルは HE の損失でのみフル容量で利用可能であることが示された。
- 参考スコア(独自算出の注目度): 30.10527300601721
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We present a Momentum Re-identification (MoReID) framework that can leverage
a very large number of negative samples in training for general
re-identification task. The design of this framework is inspired by Momentum
Contrast (MoCo), which uses a dictionary to store current and past batches to
build a large set of encoded samples. As we find it less effective to use past
positive samples which may be highly inconsistent to the encoded feature
property formed with the current positive samples, MoReID is designed to use
only a large number of negative samples stored in the dictionary. However, if
we train the model using the widely used Triplet loss that uses only one sample
to represent a set of positive/negative samples, it is hard to effectively
leverage the enlarged set of negative samples acquired by the MoReID framework.
To maximize the advantage of using the scaled-up negative sample set, we newly
introduce Hard-distance Elastic loss (HE loss), which is capable of using more
than one hard sample to represent a large number of samples. Our experiments
demonstrate that a large number of negative samples provided by MoReID
framework can be utilized at full capacity only with the HE loss, achieving the
state-of-the-art accuracy on three re-ID benchmarks, VeRi-776, Market-1501, and
VeRi-Wild.
- Abstract(参考訳): 本稿では,モメンタム再同定(Momentum Re-identification, MoReID)フレームワークを提案する。
このフレームワークの設計はmomomentum contrast(moco)に触発され、辞書を使って現在のバッチと過去のバッチを保存し、大量のエンコードされたサンプルを構築する。
現在の正のサンプルで形成されたエンコードされた特徴量と非常に矛盾する過去の正のサンプルを使用することは、あまり効果がないため、moreidは辞書に格納された大量の負のサンプルのみを使用するように設計されている。
しかし、正負のサンプルの集合を表すために1つのサンプルしか使わない広く使われているトリプルト損失を用いてモデルを訓練すると、MoReIDフレームワークが獲得した負のサンプルの増大を効果的に活用することは困難である。
スケールアップした負のサンプルセットを使用する利点を最大化するため,我々は,複数のハードサンプルを用いて多数のサンプルを表現できるハード距離弾性損失(he損失)を新たに導入した。
実験の結果,MoReIDフレームワークが提供する負のサンプルをHe損失にのみフル容量で利用することができ,VeRi-776,Market-1501,VeRi-Wildの3つのre-IDベンチマークにおける最先端の精度を実現することができた。
関連論文リスト
- Your Negative May not Be True Negative: Boosting Image-Text Matching
with False Negative Elimination [62.18768931714238]
提案手法は, サンプリングによる新規な偽陰性除去 (FNE) 戦略である。
その結果,提案した偽陰性除去戦略の優位性が示された。
論文 参考訳(メタデータ) (2023-08-08T16:31:43Z) - Relation-Aware Network with Attention-Based Loss for Few-Shot Knowledge
Graph Completion [9.181270251524866]
現在のアプローチでは、マージンベースのランキング損失を最小限に抑えるために、参照エンティティペア毎に1つの負のサンプルをランダムに選択する。
本稿では,意図に基づくロスフレームワークを用いたリレーショナル・アウェア・ネットワークを提案する。
実験により、RANAは2つのベンチマークデータセットで最先端モデルよりも優れていることが示された。
論文 参考訳(メタデータ) (2023-06-15T21:41:43Z) - Reducing Training Sample Memorization in GANs by Training with
Memorization Rejection [80.0916819303573]
本稿では,トレーニング中のトレーニングサンプルのほぼ重複する生成サンプルを拒否する学習手法であるリジェクション記憶法を提案する。
我々のスキームは単純で汎用的であり、任意のGANアーキテクチャに直接適用することができる。
論文 参考訳(メタデータ) (2022-10-21T20:17:50Z) - Entity Aware Negative Sampling with Auxiliary Loss of False Negative
Prediction for Knowledge Graph Embedding [0.0]
我々はEANS(Entity Aware Negative Smpling)と呼ばれる新しい手法を提案する。
EANSは、整列した実体指数空間にガウス分布を採用することにより、正に類似した負の実体をサンプリングすることができる。
提案手法は, 正のサンプルサイズによらず高品質な負のサンプルを生成し, 偽の負のサンプルの影響を効果的に軽減することができる。
論文 参考訳(メタデータ) (2022-10-12T14:27:51Z) - ReSmooth: Detecting and Utilizing OOD Samples when Training with Data
Augmentation [57.38418881020046]
最近のDA技術は、常に強化トレーニングサンプルの多様性の必要性を満たす。
多様性の高い増分戦略は、通常、アウト・オブ・ディストリビューション(OOD)の増分サンプルを導入する。
ReSmoothは、まず、拡張サンプル中のOODサンプルを検知し、それらを活用するフレームワークである。
論文 参考訳(メタデータ) (2022-05-25T09:29:27Z) - Rethinking InfoNCE: How Many Negative Samples Do You Need? [54.146208195806636]
半定量的理論フレームワークを用いて, InfoNCE に最適化された負のサンプル数について検討した。
トレーニングの有効性関数を最大化する$K$値を用いて,最適負サンプリング比を推定する。
論文 参考訳(メタデータ) (2021-05-27T08:38:29Z) - One for More: Selecting Generalizable Samples for Generalizable ReID
Model [92.40951770273972]
本稿では,選択したサンプルを損失関数として一般化する1対3の学習目標を提案する。
提案した1対3のサンプルは,ReIDトレーニングフレームワークにシームレスに統合できる。
論文 参考訳(メタデータ) (2020-12-10T06:37:09Z) - Simplify and Robustify Negative Sampling for Implicit Collaborative
Filtering [42.832851785261894]
本稿では,まず,モデル学習において潜在的に重要な事例が少数存在することを実証的に観察し,ネガティブな事例を新たに理解する。
次に、メモリに格納された高分散サンプルを好んで、修正されていない偽陰性問題に取り組む。
2つの合成データセットと3つの実世界のデータセットの実証結果は、我々の負サンプリング法の堅牢性と優位性を示している。
論文 参考訳(メタデータ) (2020-09-07T19:08:26Z) - Multi-Scale Positive Sample Refinement for Few-Shot Object Detection [61.60255654558682]
Few-shot Object Detection (FSOD) は、ディテクターがトレーニングインスタンスをほとんど持たない未確認のクラスに適応するのに役立つ。
FSODにおけるオブジェクトスケールを拡張化するためのMPSR(Multi-scale Positive Sample Refinement)アプローチを提案する。
MPSRは、オブジェクトピラミッドとして多スケールの正のサンプルを生成し、様々なスケールで予測を洗練させる。
論文 参考訳(メタデータ) (2020-07-18T09:48:29Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。