論文の概要: Unified Negative Pair Generation toward Well-discriminative Feature
Space for Face Recognition
- arxiv url: http://arxiv.org/abs/2203.11593v1
- Date: Tue, 22 Mar 2022 10:21:11 GMT
- ステータス: 処理完了
- システム内更新日: 2022-03-23 14:15:43.530415
- Title: Unified Negative Pair Generation toward Well-discriminative Feature
Space for Face Recognition
- Title(参考訳): 顔認識のための特徴空間に対する統一負対生成
- Authors: Junuk Jung, Seonhoon Lee, Heung-Seon Oh, Yongjun Park, Joochan Park,
Sungbin Son
- Abstract要約: 顔認識モデルは、$infmathcalSp > supmathcalSn$を満たす、よく識別可能な特徴空間(WDFS)を形成する。
本稿では,2つのPG戦略を組み合わせることにより,統一負対生成(UNPG)を提案する。
- 参考スコア(独自算出の注目度): 1.5111115982452274
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The goal of face recognition (FR) can be viewed as a pair similarity
optimization problem, maximizing a similarity set $\mathcal{S}^p$ over positive
pairs, while minimizing similarity set $\mathcal{S}^n$ over negative pairs.
Ideally, it is expected that FR models form a well-discriminative feature space
(WDFS) that satisfies $\inf{\mathcal{S}^p} > \sup{\mathcal{S}^n}$. With regard
to WDFS, the existing deep feature learning paradigms (i.e., metric and
classification losses) can be expressed as a unified perspective on different
pair generation (PG) strategies. Unfortunately, in the metric loss (ML), it is
infeasible to generate negative pairs taking all classes into account in each
iteration because of the limited mini-batch size. In contrast, in
classification loss (CL), it is difficult to generate extremely hard negative
pairs owing to the convergence of the class weight vectors to their center.
This leads to a mismatch between the two similarity distributions of the
sampled pairs and all negative pairs. Thus, this paper proposes a unified
negative pair generation (UNPG) by combining two PG strategies (i.e., MLPG and
CLPG) from a unified perspective to alleviate the mismatch. UNPG introduces
useful information about negative pairs using MLPG to overcome the CLPG
deficiency. Moreover, it includes filtering the similarities of noisy negative
pairs to guarantee reliable convergence and improved performance. Exhaustive
experiments show the superiority of UNPG by achieving state-of-the-art
performance across recent loss functions on public benchmark datasets. Our code
and pretrained models are publicly available.
- Abstract(参考訳): 顔認識(fr)の目標は対の類似性最適化問題と見なすことができ、対の類似性集合 $\mathcal{s}^p$ を正の対より最大化し、一方、類似性集合 $\mathcal{s}^n$ を負の対より最小化する。
理想的には、frモデルが、$\inf{\mathcal{s}^p} > \sup{\mathcal{s}^n}$を満たす well-discriminative feature space (wdfs) を形成することが期待される。
WDFSに関して、既存の深い特徴学習パラダイム(メートル法と分類の損失)は、異なるペア生成(PG)戦略の統一的な視点として表現できる。
残念ながら、メートル法損失(ML)では、最小バッチサイズが制限されているため、各イテレーションですべてのクラスを考慮に入れた負のペアを生成することができない。
対照的に、分類損失(CL)では、クラス重みベクトルが中心に収束するため、非常に硬い負の対を生成することは困難である。
これにより、サンプル対と全ての負対の2つの類似性分布が一致しない。
そこで本稿では,2つのPG戦略(MLPGとCLPG)を統一的な視点から組み合わせ,ミスマッチを緩和する統一負対生成(UNPG)を提案する。
UNPGは、CLPG欠損を克服するためにMLPGを使用して負のペアに関する有用な情報を導入する。
さらに、ノイズ負対の類似性をフィルタリングして、信頼性の高い収束と性能の向上を保証する。
公的なベンチマークデータセット上での最近の損失関数にまたがる最先端性能を達成することにより、UNPGの優位性を示す。
私たちのコードと事前トレーニングされたモデルは公開されています。
関連論文リスト
- Statistical-Computational Trade-offs for Recursive Adaptive Partitioning Estimators [23.056208049082134]
我々は,高次元回帰のためのグリーディアルゴリズムが局所最適点において立ち往生していることを示す。
低い推定誤差を達成するために、greedyトレーニングには$exp(Omega(d))$が必要であることを示す。
この二分法は、平均場状態における勾配降下(SGD)を訓練した2層ニューラルネットワークを反映する。
論文 参考訳(メタデータ) (2024-11-07T03:11:53Z) - Negative-Free Self-Supervised Gaussian Embedding of Graphs [29.26519601854811]
グラフコントラスト学習(GCL)は、有望なグラフ自己教師型学習フレームワークとして登場した。
正規化された等方的ガウス関数に従って分布する点が単位超球面全体に均一に広がるという事実に着想を得た、一様性を達成するための負の目的を提案する。
提案手法は,既存のGCL法と比較して,少ないパラメータ,短いトレーニング時間,少ないメモリ消費で競合性能を実現する。
論文 参考訳(メタデータ) (2024-11-02T07:04:40Z) - Addressing GAN Training Instabilities via Tunable Classification Losses [8.151943266391493]
GAN(Generative Adversarial Network)は、形式的な保証付き合成データを生成する。
すべての対称$f$-発散は収束において同値であることを示す。
また,合成2次元ガウス混合環のトレーニング不安定性を緩和するために,$(alpha_D,alpha_G)$のチューニング値も強調する。
論文 参考訳(メタデータ) (2023-10-27T17:29:07Z) - Learning by Sorting: Self-supervised Learning with Group Ordering
Constraints [75.89238437237445]
本稿では,対照学習目標である群順序制約(GroCo)の新たなバリエーションを提案する。
正の対と負の対の距離をソートし、正の対が負の対よりも多くの距離を持つかに基づいてそれぞれの損失を計算するという考え方を利用しており、したがって正しく順序付けされていない。
各種自己教師付き学習ベンチマークの定式化について検討し、バニラのコントラスト学習と比較して結果が向上するだけでなく、k-NNの性能において、線形探索や性能向上において同等の手法と競合する性能を示すことを示す。
論文 参考訳(メタデータ) (2023-01-05T11:17:55Z) - Positive-Negative Equal Contrastive Loss for Semantic Segmentation [8.664491798389662]
従来の作業では、グローバルコンテキストを効果的に抽出し集約するために、プラグアンドプレイモジュールと構造的損失を設計するのが一般的だった。
そこで我々は, 正負の負の正の負の負の正の負の正の負の正の負の負の負の正の負の負の正の負の負の負の負の負の負の負の負の負の負の負の負の負の負の負の負の負の負の負の負の負の負の負の負の負の負の負の負の負の負の負の負の負の負の負の負の負の負の負の負の負の負の負の負の負の負の負の負の負の負の負の
総合的な実験を行い、2つのベンチマークデータセット上で最先端のパフォーマンスを達成する。
論文 参考訳(メタデータ) (2022-07-04T13:51:29Z) - Rebalanced Siamese Contrastive Mining for Long-Tailed Recognition [120.80038161330623]
教師付きコントラスト学習は、元のバッチレベルとシームズバッチレベルの両方において、二重クラス不均衡の問題に悩まされていることを示す。
コントラスト計算のための情報的ペアを抽出し,表現学習を改善するために,教師付き強正・負のペアマイニングを提案する。
論文 参考訳(メタデータ) (2022-03-22T07:30:38Z) - Provable Stochastic Optimization for Global Contrastive Learning: Small
Batch Does Not Harm Performance [53.49803579981569]
各正の対と全ての負の対をアンカーポイントで対比する、コントラスト学習のグローバルな目的を考える。
SimCLRのような既存のメソッドは、十分な結果を得るために大きなバッチサイズを必要とする。
本稿では,SogCLRという表現のグローバルコントラスト学習を解くためのメモリ効率の最適化アルゴリズムを提案する。
論文 参考訳(メタデータ) (2022-02-24T22:16:53Z) - Prototypical Graph Contrastive Learning [141.30842113683775]
本稿では,有意なサンプリングバイアスを緩和するために,プロトタイプグラフコントラスト学習(PGCL)手法を提案する。
具体的には、PGCLは、グラフデータの基盤となる意味構造を、意味論的に類似したグラフを同じグループにクラスタリングすることでモデル化し、同時に、同じグラフの異なる拡張に対するクラスタリング一貫性を奨励する。
クエリのために、PGCLはさらに、プロトタイプ(クラスタセントロイド)とクエリプロトタイプの間の距離に基づいて、負のサンプルを再重み付けする。
論文 参考訳(メタデータ) (2021-06-17T16:45:31Z) - Multi-group Agnostic PAC Learnability [7.9649015115693444]
マルチグループ非依存型PAC学習可能性」について検討する。
このような予測器が存在することが保証される損失関数のキャラクタリゼーションを提供する。
本研究は,複数群フェアネス文献から得られた前向きおよび負の結果を統一し,拡張するものである。
論文 参考訳(メタデータ) (2021-05-20T18:43:36Z) - Scalable Personalised Item Ranking through Parametric Density Estimation [53.44830012414444]
暗黙のフィードバックから学ぶことは、一流問題の難しい性質のために困難です。
ほとんどの従来の方法は、一級問題に対処するためにペアワイズランキングアプローチとネガティブサンプラーを使用します。
本論文では,ポイントワイズと同等の収束速度を実現する学習対ランクアプローチを提案する。
論文 参考訳(メタデータ) (2021-05-11T03:38:16Z) - Non-Convex SGD Learns Halfspaces with Adversarial Label Noise [50.659479930171585]
分布固有モデルにおいて,同種半空間の学習を代理する問題に対する解を示す。
任意の凸分布において、誤分類誤差は本質的にハーフスペースの誤分類誤差につながることを示す。
論文 参考訳(メタデータ) (2020-06-11T18:55:59Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。