論文の概要: Center Prediction Loss for Re-identification
- arxiv url: http://arxiv.org/abs/2104.14746v1
- Date: Fri, 30 Apr 2021 03:57:31 GMT
- ステータス: 処理完了
- システム内更新日: 2021-05-03 13:41:16.983413
- Title: Center Prediction Loss for Re-identification
- Title(参考訳): 再同定のためのセンター予測損失
- Authors: Lu Yang, Yunlong Wang, Lingqiao Liu, Peng Wang, Lu Chi, Zehuan Yuan,
Changhu Wang and Yanning Zhang
- Abstract要約: 我々は, 中心予測率に基づく新たな損失, すなわち, 試料が特徴空間の位置に位置しなければならず, そこから同一クラス標本の中心の位置を大まかに予測できることを示す。
今回の新たな損失により,クラス間サンプルの分離性が向上しつつ,クラス内分散制約がより柔軟になることを示す。
- 参考スコア(独自算出の注目度): 65.58923413172886
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The training loss function that enforces certain training sample distribution
patterns plays a critical role in building a re-identification (ReID) system.
Besides the basic requirement of discrimination, i.e., the features
corresponding to different identities should not be mixed, additional
intra-class distribution constraints, such as features from the same identities
should be close to their centers, have been adopted to construct losses.
Despite the advances of various new loss functions, it is still challenging to
strike the balance between the need of reducing the intra-class variation and
allowing certain distribution freedom. In this paper, we propose a new loss
based on center predictivity, that is, a sample must be positioned in a
location of the feature space such that from it we can roughly predict the
location of the center of same-class samples. The prediction error is then
regarded as a loss called Center Prediction Loss (CPL). We show that, without
introducing additional hyper-parameters, this new loss leads to a more flexible
intra-class distribution constraint while ensuring the between-class samples
are well-separated. Extensive experiments on various real-world ReID datasets
show that the proposed loss can achieve superior performance and can also be
complementary to existing losses.
- Abstract(参考訳): 特定のトレーニングサンプル分布パターンを強制するトレーニング損失関数は、再識別(ReID)システムを構築する上で重要な役割を果たす。
識別の基本要件の他に、異なる同一性に対応する特徴を混合するべきではないが、同じ同一性に由来する特徴をその中心に近づけるといった追加のクラス内分布制約が、損失の構築に採用されている。
様々な新しい損失関数の進歩にもかかわらず、クラス内変動を減らす必要性と特定の分布の自由度とのバランスを取ることは依然として困難である。
本稿では,中心予測率に基づく新たな損失について述べる。つまり,同一クラス標本の中央位置を大まかに予測できるように,特徴空間の位置にサンプルを配置する必要がある。
予測誤差は、CPL(Center Prediction Loss)と呼ばれる損失と見なされる。
追加のハイパーパラメータを導入することなく、この新たな損失は、クラス間のサンプルが適切に分離されていることを保証しながら、より柔軟なクラス内分布制約をもたらすことを示す。
様々な実世界のReIDデータセットに対する大規模な実験により、提案された損失は優れた性能を達成でき、既存の損失を補完できることを示した。
関連論文リスト
- Probabilistic Contrastive Learning for Long-Tailed Visual Recognition [78.70453964041718]
細長い分布は、少数の少数派が限られた数のサンプルを含む実世界のデータにしばしば現れる。
近年の研究では、教師付きコントラスト学習がデータ不均衡を緩和する有望な可能性を示していることが明らかになっている。
本稿では,特徴空間の各クラスからのサンプルデータ分布を推定する確率論的コントラスト学習アルゴリズムを提案する。
論文 参考訳(メタデータ) (2024-03-11T13:44:49Z) - Center Contrastive Loss for Metric Learning [8.433000039153407]
本稿では,Central Contrastive Lossと呼ばれる新しいメトリック学習機能を提案する。
クラスワイド・センタ・バンクを維持し、コントラッシブ・ロスを用いてカテゴリセンターとクエリデータポイントを比較している。
提案した損失は、対比法と分類法の両方の利点を組み合わせたものである。
論文 参考訳(メタデータ) (2023-08-01T11:22:51Z) - A data variation robust learning model based on importance sampling [11.285259001286978]
本稿では,分散逸脱の制約下での損失の最悪のケースを最小限に抑える学習問題に対して,重要サンプリングに基づくデータ変動ロバスト損失(ISloss)を提案する。
提案手法は, 分布変化が大きい場合, 頑健であることを示す。
論文 参考訳(メタデータ) (2023-02-09T04:50:06Z) - Proposal Distribution Calibration for Few-Shot Object Detection [65.19808035019031]
few-shot object detection (FSOD)では、重度のサンプル不均衡を軽減するために、2段階の訓練パラダイムが広く採用されている。
残念ながら、極端なデータ不足は、提案の分布バイアスを増大させ、RoIヘッドが新しいクラスに進化するのを妨げます。
本稿では,RoIヘッドのローカライゼーションと分類能力を高めるために,単純かつ効果的な提案分布キャリブレーション(PDC)手法を提案する。
論文 参考訳(メタデータ) (2022-12-15T05:09:11Z) - Learning Compact Features via In-Training Representation Alignment [19.273120635948363]
各エポックでは、トレーニングセットからサンプリングしたミニバッチを用いて損失関数の真の勾配を推定する。
In-Training Representation Alignment (ITRA) を提案する。
また,特徴表現学習における一致損失の望ましい影響を厳密に分析する。
論文 参考訳(メタデータ) (2022-11-23T22:23:22Z) - Towards In-distribution Compatibility in Out-of-distribution Detection [30.49191281345763]
本稿では,深層モデルの上位設計と損失関数の両方を適応させることにより,新しい分布外検出法を提案する。
本手法は,最先端の分布検出性能を実現するとともに,分布内精度も向上する。
論文 参考訳(メタデータ) (2022-08-29T09:06:15Z) - CAFA: Class-Aware Feature Alignment for Test-Time Adaptation [50.26963784271912]
テスト時間適応(TTA)は、テスト時にラベルのないデータにモデルを適応させることによって、この問題に対処することを目的としている。
本稿では,クラス認識特徴アライメント(CAFA, Class-Aware Feature Alignment)と呼ばれる単純な機能アライメント損失を提案する。
論文 参考訳(メタデータ) (2022-06-01T03:02:07Z) - An Equivalence between Loss Functions and Non-Uniform Sampling in
Experience Replay [72.23433407017558]
非一様サンプルデータを用いて評価された損失関数は、別の一様サンプルデータ損失関数に変換可能であることを示す。
驚いたことに、いくつかの環境では、PERは経験的パフォーマンスに影響を与えることなく、この新たな損失関数に完全に置き換えることができる。
論文 参考訳(メタデータ) (2020-07-12T17:45:24Z) - Imbalanced Data Learning by Minority Class Augmentation using Capsule
Adversarial Networks [31.073558420480964]
本稿では,2つの同時手法を合体させて,不均衡な画像のバランスを回復する手法を提案する。
我々のモデルでは、生成的および識別的ネットワークは、新しい競争力のあるゲームをする。
カプセルGANの合体は、畳み込みGANと比較して非常に少ないパラメータで重なり合うクラスを認識するのに効果的である。
論文 参考訳(メタデータ) (2020-04-05T12:36:06Z) - When Relation Networks meet GANs: Relation GANs with Triplet Loss [110.7572918636599]
GAN(Generative Adversarial Network)の学習安定性はいまだに悩みの種である
本稿では,判別器のための関係ネットワークアーキテクチャについて検討し,より優れた一般化と安定性を実現する三重項損失を設計する。
ベンチマークデータセットの実験により、提案された関係判別器と新たな損失は、可変視覚タスクに大幅な改善をもたらすことが示された。
論文 参考訳(メタデータ) (2020-02-24T11:35:28Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。