論文の概要: Joint Discriminative and Metric Embedding Learning for Person
Re-Identification
- arxiv url: http://arxiv.org/abs/2212.14107v1
- Date: Wed, 28 Dec 2022 22:08:42 GMT
- ステータス: 処理完了
- システム内更新日: 2023-01-02 16:32:09.000481
- Title: Joint Discriminative and Metric Embedding Learning for Person
Re-Identification
- Title(参考訳): 人物再同定のための共同識別・計量埋め込み学習
- Authors: Sinan Sabri, Zaigham Randhawa, Gianfranco Doretto
- Abstract要約: 個人の再識別は,非制限的ニュアンス要因によって引き起こされるクラス内ばらつきが高いため,困難な課題である。
最近のアプローチでは、強力なアーキテクチャはニュアンス要因に不変な特徴表現を学習する能力を持っていると仮定されている。
- 参考スコア(独自算出の注目度): 8.137833258504381
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Person re-identification is a challenging task because of the high
intra-class variance induced by the unrestricted nuisance factors of variations
such as pose, illumination, viewpoint, background, and sensor noise. Recent
approaches postulate that powerful architectures have the capacity to learn
feature representations invariant to nuisance factors, by training them with
losses that minimize intra-class variance and maximize inter-class separation,
without modeling nuisance factors explicitly. The dominant approaches use
either a discriminative loss with margin, like the softmax loss with the
additive angular margin, or a metric learning loss, like the triplet loss with
batch hard mining of triplets. Since the softmax imposes feature normalization,
it limits the gradient flow supervising the feature embedding. We address this
by joining the losses and leveraging the triplet loss as a proxy for the
missing gradients. We further improve invariance to nuisance factors by adding
the discriminative task of predicting attributes. Our extensive evaluation
highlights that when only a holistic representation is learned, we consistently
outperform the state-of-the-art on the three most challenging datasets. Such
representations are easier to deploy in practical systems. Finally, we found
that joining the losses removes the requirement for having a margin in the
softmax loss while increasing performance.
- Abstract(参考訳): 人物再同定は、ポーズ、照明、視点、背景、センサノイズなどの変動の非制限的迷惑要因によって引き起こされるクラス内ばらつきが高いため、困難な課題である。
最近のアプローチでは、強力なアーキテクチャには、クラス内分散を最小化し、クラス間分離を最大化する損失をトレーニングすることで、迷惑要因に不変な特徴表現を学ぶ能力がある、と仮定している。
支配的なアプローチはマージンによる判別的損失、例えば角マージンのソフトマックス損失、またはトリプレットのバッチハードマイニングによるトリプレット損失のようなメトリック学習損失のいずれかを使用する。
ソフトマックスは特徴正規化を課すため、特徴埋め込みを監督する勾配流を制限する。
損失と三重項損失を欠落勾配のプロキシとして活用することで、この問題に対処する。
さらに,属性予測の判別タスクを付加することにより,迷惑要因へのばらつきをさらに改善する。
広範な評価では、総合的な表現だけを学ぶと、最も難しい3つのデータセットの最先端を一貫して上回っています。
このような表現は実用システムにおいて容易に展開できる。
最後に,損失の和合により,ソフトマックス損失のマージンが低下し,性能が向上することがわかった。
関連論文リスト
- LEARN: An Invex Loss for Outlier Oblivious Robust Online Optimization [56.67706781191521]
敵は、学習者に未知の任意の数kの損失関数を破損させることで、外れ値を導入することができる。
我々は,任意の数kで損失関数を破損させることで,敵が外乱を発生させることができる,頑健なオンラインラウンド最適化フレームワークを提案する。
論文 参考訳(メタデータ) (2024-08-12T17:08:31Z) - Large Margin Discriminative Loss for Classification [3.3975558777609915]
本稿では,Deep Learning の文脈において,大きなマージンを持つ新たな識別的損失関数を提案する。
この損失は、クラス内コンパクト性とクラス間分離性によって表されるニューラルネットの識別力を高める。
論文 参考訳(メタデータ) (2024-05-28T18:10:45Z) - Noise-Robust Loss Functions: Enhancing Bounded Losses for Large-Scale Noisy Data Learning [0.0]
大きな注釈付きデータセットには、必然的にノイズのあるラベルが含まれており、ラベルを覚えやすいようにディープニューラルネットワークをトレーニングする上で大きな課題となる。
ノイズ・ロバスト損失関数はこの問題に対処するための重要な戦略として現れてきたが、過度に適合しないロバスト損失関数を作成することは依然として困難である。
本稿では,ロジットバイアス(logit bias)と表される新しい手法を提案し,ロジットに正しいクラスの位置で実数$epsilon$を付加する。
論文 参考訳(メタデータ) (2023-06-08T18:38:55Z) - Learning Towards the Largest Margins [83.7763875464011]
損失関数は、クラスとサンプルの両方の最大のマージンを促進するべきである。
この原則化されたフレームワークは、既存のマージンベースの損失を理解し、解釈するための新しい視点を提供するだけでなく、新しいツールの設計を導くことができます。
論文 参考訳(メタデータ) (2022-06-23T10:03:03Z) - Do Lessons from Metric Learning Generalize to Image-Caption Retrieval? [67.45267657995748]
半ハードな負のトリプルト損失は、スクラッチから最適化されたイメージキャプション検索(ICR)メソッドのデファクト選択となっている。
近年のメトリクス学習の進歩により、画像検索や表現学習といったタスクにおいて、三重項損失を上回る新たな損失関数が生まれている。
これらの結果は,2つのICR法における3つの損失関数を比較することで,ICRの設定に一般化するかどうかを問う。
論文 参考訳(メタデータ) (2022-02-14T15:18:00Z) - Do We Need to Penalize Variance of Losses for Learning with Label Noise? [91.38888889609002]
ノイズラベルを用いた学習では,差分を増大させる必要がある。
ラベルノイズ遷移行列を利用することで、正規化器は損失の分散を低減することができる。
実験的に,損失の分散を増大させることにより,合成データセットと実世界のデータセットのベースラインの一般化能力を大幅に向上させる。
論文 参考訳(メタデータ) (2022-01-30T06:19:08Z) - Frequency-aware Discriminative Feature Learning Supervised by
Single-Center Loss for Face Forgery Detection [89.43987367139724]
顔の偽造検出は、コンピュータビジョンへの関心をますます高めている。
近年の業績は良好なものとなっているが、いまだに無視できない問題がある。
本稿では,新しい周波数認識型特徴学習フレームワークを提案する。
論文 参考訳(メタデータ) (2021-03-16T14:17:17Z) - Adaptive Weighted Discriminator for Training Generative Adversarial
Networks [11.68198403603969]
本稿では,実物と偽物の重み付けを取り入れた新たな識別器損失関数群を提案する。
本手法は実部と偽部の合計である損失を持つ任意の判別器モデルに適用できる可能性がある。
論文 参考訳(メタデータ) (2020-12-05T23:55:42Z) - Loss Function Search for Face Recognition [75.79325080027908]
最適な候補を自動的に獲得する報酬誘導探索法を開発した。
種々の顔認証ベンチマークの実験結果から,本手法の有効性が示された。
論文 参考訳(メタデータ) (2020-07-10T03:40:10Z) - Disentanglement for Discriminative Visual Recognition [7.954325638519141]
この章では、有害な要因を、タスク関連/非関連なセマンティックなバリエーションと、特定されていない潜伏的なバリエーションとして体系的に要約する。
統合された2つの完全に接続されたレイヤブランチフレームワークにおいて、ディープメトリックロスとソフトマックスロスを組み合わせることで、より優れたFER性能を実現することができる。
このフレームワークは、照明、化粧、変装耐性顔認証、顔属性認識など、一連のタスクにおいて最高のパフォーマンスを達成する。
論文 参考訳(メタデータ) (2020-06-14T06:10:51Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。