論文の概要: OTFace: Hard Samples Guided Optimal Transport Loss for Deep Face
Representation
- arxiv url: http://arxiv.org/abs/2203.14461v1
- Date: Mon, 28 Mar 2022 02:57:04 GMT
- ステータス: 処理完了
- システム内更新日: 2022-03-29 15:35:38.531737
- Title: OTFace: Hard Samples Guided Optimal Transport Loss for Deep Face
Representation
- Title(参考訳): OTFace: ディープフェイス表現のための最適なトランスポート損失をガイドしたハードサンプル
- Authors: Jianjun Qian, Shumin Zhu, Chaoyu Zhao, Jian Yang and Wai Keung Wong
- Abstract要約: 大規模な顔の変動のため、野生での顔の表現は非常に難しい。
本稿では,ディープフェイス表現のためのハードサンプル誘導最適トランスポート(OT)ロスを提案する。
- 参考スコア(独自算出の注目度): 31.220594076407444
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Face representation in the wild is extremely hard due to the large scale face
variations. To this end, some deep convolutional neural networks (CNNs) have
been developed to learn discriminative feature by designing properly
margin-based losses, which perform well on easy samples but fail on hard
samples. Based on this, some methods mainly adjust the weights of hard samples
in training stage to improve the feature discrimination. However, these methods
overlook the feature distribution property which may lead to better results
since the miss-classified hard samples may be corrected by using the
distribution metric. This paper proposes the hard samples guided optimal
transport (OT) loss for deep face representation, OTFace for short. OTFace aims
to enhance the performance of hard samples by introducing the feature
distribution discrepancy while maintain the performance on easy samples.
Specifically, we embrace triplet scheme to indicate hard sample groups in one
mini-batch during training. OT is then used to characterize the distribution
differences of features from the high level convolutional layer. Finally, we
integrate the margin-based-softmax (e.g. ArcFace or AM-Softmax) and OT to guide
deep CNN learning. Extensive experiments are conducted on several benchmark
databases. The quantitative results demonstrate the advantages of the proposed
OTFace over state-of-the-art methods.
- Abstract(参考訳): 大規模な顔の変動のため、野生での顔の表現は非常に難しい。
この目的のために、いくつかの深層畳み込みニューラルネットワーク(CNN)が開発され、マージンベースの損失を適切に設計することで差別的特徴を学習している。
これに基づいて、一部の方法は、主に訓練段階におけるハードサンプルの重量を調整し、特徴識別を改善する。
しかし,これらの手法は分布測定値を用いて誤分類ハードサンプルを補正できるため,より良い結果をもたらす可能性のある特性分布特性を見落としている。
本稿では,顔深部表現のためのハードサンプル誘導最適輸送(OT)損失,略してOTFaceを提案する。
otfaceは,簡単なサンプルでのパフォーマンスを維持しつつ,機能分布の差異を導入することで,ハードサンプルのパフォーマンス向上を目標としている。
具体的には、トレーニング中に1つのミニバッチでハードサンプル群を示すトリプレット方式を採用する。
その後、OTは高レベルの畳み込み層からの特徴の分布差を特徴づけるために使用される。
最後に、マージンベースのソフトマックス(例えばArcFaceやAM-Softmax)とOTを統合して、深層CNN学習をガイドします。
いくつかのベンチマークデータベースで広範な実験が行われている。
定量的な結果は,最先端手法に対するOTFaceの利点を示している。
関連論文リスト
- Deep Boosting Multi-Modal Ensemble Face Recognition with Sample-Level
Weighting [11.39204323420108]
深層畳み込みニューラルネットワークは顔認識において顕著な成功を収めた。
現在のトレーニングベンチマークは、不均衡な品質分布を示している。
これは、訓練中に不足しているため、ハードサンプルの一般化に問題を引き起こす。
有名なAdaBoostにインスパイアされた本研究では、FR損失に異なるサンプルの重要性を組み込むためのサンプルレベルの重み付け手法を提案する。
論文 参考訳(メタデータ) (2023-08-18T01:44:54Z) - Learning Compact Features via In-Training Representation Alignment [19.273120635948363]
各エポックでは、トレーニングセットからサンプリングしたミニバッチを用いて損失関数の真の勾配を推定する。
In-Training Representation Alignment (ITRA) を提案する。
また,特徴表現学習における一致損失の望ましい影響を厳密に分析する。
論文 参考訳(メタデータ) (2022-11-23T22:23:22Z) - ScoreMix: A Scalable Augmentation Strategy for Training GANs with
Limited Data [93.06336507035486]
GAN(Generative Adversarial Networks)は通常、限られたトレーニングデータが利用できる場合、過度に適合する。
ScoreMixは、様々な画像合成タスクのための、新しくスケーラブルなデータ拡張手法である。
論文 参考訳(メタデータ) (2022-10-27T02:55:15Z) - Saliency Grafting: Innocuous Attribution-Guided Mixup with Calibrated
Label Mixing [104.630875328668]
ミックスアップスキームは、強化されたトレーニングサンプルを作成するために、サンプルのペアを混ぜることを提案する。
両世界のベストを捉えた、斬新だがシンプルなミックスアップ版を提示する。
論文 参考訳(メタデータ) (2021-12-16T11:27:48Z) - Sample and Computation Redistribution for Efficient Face Detection [137.19388513633484]
トレーニングデータサンプリングと計算分布戦略は、効率的で正確な顔検出の鍵です。
scrfdf34は、最高の競合製品であるTinaFaceを3.86%(ハードセットでのAP)で上回り、GPU上でVGA解像度画像でmph3$times$より高速です。
論文 参考訳(メタデータ) (2021-05-10T23:51:14Z) - Jo-SRC: A Contrastive Approach for Combating Noisy Labels [58.867237220886885]
Jo-SRC (Joint Sample Selection and Model Regularization based on Consistency) というノイズロバスト手法を提案する。
具体的には、対照的な学習方法でネットワークをトレーニングする。
各サンプルの2つの異なるビューからの予測は、クリーンまたは分布不足の「可能性」を推定するために使用されます。
論文 参考訳(メタデータ) (2021-03-24T07:26:07Z) - Exploring Adversarial Robustness of Deep Metric Learning [25.12224002984514]
DMLはディープニューラルネットワークアーキテクチャを使用して、入力のセマンティック埋め込みを学習する。
私たちは、ミニバッチのサンプルに依存しているメトリック損失の主な課題に取り組みます。
3つの一般的なDMLデータセットの実験を使用して、逆転精度の5-76倍の増加を実証する。
論文 参考訳(メタデータ) (2021-02-14T23:18:12Z) - Robust Visual Tracking via Statistical Positive Sample Generation and
Gradient Aware Learning [28.60114425270413]
CNNベースのトラッカーは、複数のベンチマークデータセットで最先端のパフォーマンスを達成した。
統計的正のサンプル生成とグラディエント・アウェア・ラーニング(SPGA)によるロバストな追跡手法を提案する。
提案するSPGAは,いくつかの最先端トラッカーに対して良好に動作することを示す。
論文 参考訳(メタデータ) (2020-11-09T09:14:58Z) - Multi-Scale Positive Sample Refinement for Few-Shot Object Detection [61.60255654558682]
Few-shot Object Detection (FSOD) は、ディテクターがトレーニングインスタンスをほとんど持たない未確認のクラスに適応するのに役立つ。
FSODにおけるオブジェクトスケールを拡張化するためのMPSR(Multi-scale Positive Sample Refinement)アプローチを提案する。
MPSRは、オブジェクトピラミッドとして多スケールの正のサンプルを生成し、様々なスケールで予測を洗練させる。
論文 参考訳(メタデータ) (2020-07-18T09:48:29Z) - Improving Face Recognition from Hard Samples via Distribution
Distillation Loss [131.61036519863856]
大きな顔のバリエーションは、顔認識の主要な課題である。
本研究では, 簡単な試料と硬質試料との性能ギャップを狭めるために, 新規な分散蒸留損失を提案する。
我々は、人種、解像度、ポーズに様々なバリエーションがある一般的な大規模顔のベンチマークとベンチマークの両方について広範な実験を行った。
論文 参考訳(メタデータ) (2020-02-10T11:25:22Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。