論文の概要: NPCFace: Negative-Positive Collaborative Training for Large-scale Face
Recognition
- arxiv url: http://arxiv.org/abs/2007.10172v3
- Date: Fri, 14 May 2021 11:37:18 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-08 14:08:00.147029
- Title: NPCFace: Negative-Positive Collaborative Training for Large-scale Face
Recognition
- Title(参考訳): npcface:大規模顔認識のための負陽性協調学習
- Authors: Dan Zeng, Hailin Shi, Hang Du, Jun Wang, Zhen Lei, and Tao Mei
- Abstract要約: 我々は、トレーニングを改善するために、ハードサンプルのより良い利用方法を研究する。
強正と強負の相関は見過ごされ、正と負のロジットのマージンの関係も見過ごされる。
我々はNPCFaceと呼ばれる新規な負の正の協調的損失を提案し、これは負のハードケースと正のハードケースの両方のトレーニングを強調している。
- 参考スコア(独自算出の注目度): 78.21084529159577
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The training scheme of deep face recognition has greatly evolved in the past
years, yet it encounters new challenges in the large-scale data situation where
massive and diverse hard cases occur. Especially in the range of low false
accept rate (FAR), there are various hard cases in both positives (intra-class)
and negatives (inter-class). In this paper, we study how to make better use of
these hard samples for improving the training. The literature approaches this
by margin-based formulation in either positive logit or negative logits.
However, the correlation between hard positive and hard negative is overlooked,
and so is the relation between the margins in positive and negative logits. We
find such correlation is significant, especially in the large-scale dataset,
and one can take advantage from it to boost the training via relating the
positive and negative margins for each training sample. To this end, we propose
an explicit collaboration between positive and negative margins sample-wisely.
Given a batch of hard samples, a novel Negative-Positive Collaboration loss,
named NPCFace, is formulated, which emphasizes the training on both negative
and positive hard cases via the collaborative-margin mechanism in the softmax
logits, and also brings better interpretation of negative-positive hardness
correlation. Besides, the emphasis is implemented with an improved formulation
to achieve stable convergence and flexible parameter setting. We validate the
effectiveness of our approach on various benchmarks of large-scale face
recognition, and obtain advantageous results especially in the low FAR range.
- Abstract(参考訳): 深層顔認識のトレーニングスキームはここ数年で大きく発展してきたが、大規模で多様なハードケースが発生する大規模データ状況では新たな課題に直面している。
特に低い偽受容率 (far) の範囲では、陽性 (intra-class) と陰性 (inter-class) の両方に様々な困難ケースが存在する。
本稿では,これらのハードサンプルをトレーニング改善に活用する方法について検討する。
文献は、正のロジットまたは負のロジットのマージンに基づく定式化によってこれをアプローチしている。
しかし、強正と強負の相関は見過ごされ、正と負の対数のマージンの関係も見過ごされる。
このような相関関係は,特に大規模データセットにおいて有意であり,各トレーニングサンプルの正のマージンと負のマージンを関連付けることで,トレーニングの促進に活用することができる。
この目的のために, 正負のマージンと負のマージンとの明確な協調を標本的に提案する。
NPCFaceと呼ばれる新規な負の正の協調的損失が与えられると、ソフトマックスロジットにおける協調マージン機構による負の硬さと正の硬さのトレーニングを強調し、負の正の硬さ相関のより良い解釈をもたらす。
さらに、安定収束とフレキシブルパラメータ設定を実現するために、改良された定式化によって強調が実施される。
本手法の有効性を大規模顔認識の様々なベンチマークで検証し,特に低域において有利な結果を得た。
関連論文リスト
- SyNeg: LLM-Driven Synthetic Hard-Negatives for Dense Retrieval [45.971786380884126]
Dense Search (DR) の性能は, 陰性サンプリングの品質に大きく影響される。
大規模言語モデル(LLM)の最近の進歩は、文脈的にリッチで多様な負のサンプルを生成することで革新的なソリューションを提供する。
本研究では,LLMを用いて高品質な硬質負のサンプルを合成するフレームワークを提案する。
論文 参考訳(メタデータ) (2024-12-23T03:49:00Z) - Enhancing Retrieval Performance: An Ensemble Approach For Hard Negative Mining [0.0]
本研究は,クロスエンコーダモデルのトレーニングプロセスにおいて,ハードネガティブが果たす重要な役割を説明することに焦点を当てる。
我々は,企業データセット上でのクロスエンコーダ・リランクモデルの効率的なトレーニングのための強硬な負のマイニング手法を開発した。
論文 参考訳(メタデータ) (2024-10-18T05:23:39Z) - Curriculum Negative Mining For Temporal Networks [33.70909189731187]
時間的ネットワークは、時間とともにネットワークの進化する相互作用を捉えるのに有効である。
CurNMは、ネガティブサンプルの難易度を適応的に調整する、モデル対応のカリキュラム学習フレームワークである。
提案手法は, ベースライン法よりも格段に優れる。
論文 参考訳(メタデータ) (2024-07-24T07:55:49Z) - Negating Negatives: Alignment with Human Negative Samples via Distributional Dispreference Optimization [37.8788435790632]
大規模言語モデル(LLM)は、AIの役割に革命をもたらしたが、潜在的な社会的リスクをもたらしている。
既存の方法は高品質な正負の訓練ペアに依存しており、ノイズの多い正の反応に悩まされており、負の反応とほとんど区別できない。
本稿では,非参照応答と生成した非負応答との差を最大化する分散参照最適化(D$2$O)を提案する。
論文 参考訳(メタデータ) (2024-03-06T03:02:38Z) - Investigating the Role of Negatives in Contrastive Representation
Learning [59.30700308648194]
ノイズコントラスト学習は教師なし表現学習の一般的な手法である。
我々は、これらのパラメータの1つの役割の曖昧さ、すなわち負の例の数に焦点をあてる。
結果が我々の理論と広く一致しているのに対して、我々の視覚実験はより悪質であり、性能は時々負の数に敏感である。
論文 参考訳(メタデータ) (2021-06-18T06:44:16Z) - Rethinking InfoNCE: How Many Negative Samples Do You Need? [54.146208195806636]
半定量的理論フレームワークを用いて, InfoNCE に最適化された負のサンプル数について検討した。
トレーニングの有効性関数を最大化する$K$値を用いて,最適負サンプリング比を推定する。
論文 参考訳(メタデータ) (2021-05-27T08:38:29Z) - Revisiting the Negative Data of Distantly Supervised Relation Extraction [17.00557139562208]
遠隔監視は、関係抽出のための多くのトレーニングサンプルを自動的に生成する。
また、ノイズラベルと不均衡なトレーニングデータという2つの大きな問題も発生している。
そこで我々はtextscReRe と呼ばれるパイプライン手法を提案し,文レベルの関係検出を行い,対象/対象抽出を行う。
論文 参考訳(メタデータ) (2021-05-21T06:44:19Z) - Scalable Personalised Item Ranking through Parametric Density Estimation [53.44830012414444]
暗黙のフィードバックから学ぶことは、一流問題の難しい性質のために困難です。
ほとんどの従来の方法は、一級問題に対処するためにペアワイズランキングアプローチとネガティブサンプラーを使用します。
本論文では,ポイントワイズと同等の収束速度を実現する学習対ランクアプローチを提案する。
論文 参考訳(メタデータ) (2021-05-11T03:38:16Z) - Contrastive Attraction and Contrastive Repulsion for Representation
Learning [131.72147978462348]
コントラスト学習(CL)法は,複数の負のサンプルに対して,エンコーダが各正のサンプルと対比する自己超越的な方法でデータ表現を学習する。
最近のCL法は、ImageNetのような大規模データセットで事前訓練された場合、有望な結果を得た。
自己グループ内の正と負のサンプルを別々に比較し、正と負の群を対比して進行する2つのCL戦略を提案する。
論文 参考訳(メタデータ) (2021-05-08T17:25:08Z) - Doubly Contrastive Deep Clustering [135.7001508427597]
本稿では、サンプルビューとクラスビューの両方でコントラスト損失を構築する新しい二重コントラストディープクラスタリング(DCDC)フレームワークを紹介します。
具体的には、サンプルビューに対して、元のサンプルとその拡張バージョンのクラス分布を正のサンプルペアとして設定する。
クラスビューでは、クラスのサンプル分布から正のペアと負のペアを構築します。
このように、2つのコントラスト損失は、サンプルとクラスレベルでのミニバッチサンプルのクラスタリング結果をうまく制限します。
論文 参考訳(メタデータ) (2021-03-09T15:15:32Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。