論文の概要: Deep Boosting Multi-Modal Ensemble Face Recognition with Sample-Level
Weighting
- arxiv url: http://arxiv.org/abs/2308.09234v1
- Date: Fri, 18 Aug 2023 01:44:54 GMT
- ステータス: 処理完了
- システム内更新日: 2023-08-21 15:07:21.837857
- Title: Deep Boosting Multi-Modal Ensemble Face Recognition with Sample-Level
Weighting
- Title(参考訳): サンプルレベル重み付けを用いたディープブースティングマルチモーダルアンサンブル顔認識
- Authors: Sahar Rahimi Malakshan, Mohammad Saeed Ebrahimi Saadabadi, Nima
Najafzadeh, Nasser M. Nasrabadi
- Abstract要約: 深層畳み込みニューラルネットワークは顔認識において顕著な成功を収めた。
現在のトレーニングベンチマークは、不均衡な品質分布を示している。
これは、訓練中に不足しているため、ハードサンプルの一般化に問題を引き起こす。
有名なAdaBoostにインスパイアされた本研究では、FR損失に異なるサンプルの重要性を組み込むためのサンプルレベルの重み付け手法を提案する。
- 参考スコア(独自算出の注目度): 11.39204323420108
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Deep convolutional neural networks have achieved remarkable success in face
recognition (FR), partly due to the abundant data availability. However, the
current training benchmarks exhibit an imbalanced quality distribution; most
images are of high quality. This poses issues for generalization on hard
samples since they are underrepresented during training. In this work, we
employ the multi-model boosting technique to deal with this issue. Inspired by
the well-known AdaBoost, we propose a sample-level weighting approach to
incorporate the importance of different samples into the FR loss. Individual
models of the proposed framework are experts at distinct levels of sample
hardness. Therefore, the combination of models leads to a robust feature
extractor without losing the discriminability on the easy samples. Also, for
incorporating the sample hardness into the training criterion, we analytically
show the effect of sample mining on the important aspects of current angular
margin loss functions, i.e., margin and scale. The proposed method shows
superior performance in comparison with the state-of-the-art algorithms in
extensive experiments on the CFP-FP, LFW, CPLFW, CALFW, AgeDB, TinyFace, IJB-B,
and IJB-C evaluation datasets.
- Abstract(参考訳): 深層畳み込みニューラルネットワークは、豊富なデータ可用性のために、顔認識(fr)で目覚ましい成功を収めている。
しかし、現在のトレーニングベンチマークは不均衡な品質分布を示しており、ほとんどの画像は高品質である。
これはトレーニング中に過度に表現されるため、ハードサンプルの一般化に問題を引き起こす。
本研究では,この問題に対処するためにマルチモデルブースティング技術を用いる。
有名なadaboostに触発されて,異なるサンプルの重要性をfr損失に組み込むためのサンプルレベルの重み付け手法を提案する。
提案フレームワークの個々のモデルは、異なるレベルのサンプルハードネスの専門家である。
したがって、モデルの組み合わせは、簡単なサンプルの識別性を損なうことなく、堅牢な特徴抽出器をもたらす。
また,試料の硬さをトレーニング基準に組み込むため,試料採掘が現在の角縁損失関数,すなわちマージンとスケールの重要な側面に与える影響を解析的に示す。
提案手法は,CFP-FP,LFW,CPLFW,CALFW, AgeDB, TinyFace, IJB-B, IJB-C評価データセットにおいて,最先端のアルゴリズムと比較して優れた性能を示す。
関連論文リスト
- Stochastic Sampling for Contrastive Views and Hard Negative Samples in Graph-based Collaborative Filtering [28.886714896469737]
グラフベースの協調フィルタリング(CF)はレコメンデーションシステムにおいて有望なアプローチである。
その成果にもかかわらず、グラフベースのCFモデルは、データの分散性と負のサンプリングによる課題に直面している。
我々は,これらの課題を克服するために,一,二,三,三,三,三,三,三,三,三,三,三,三,三,三,三,三,三,三,三,三,三,三,三,三,三,三の難易度を抽出した新しいサンプリング法を提案する。
論文 参考訳(メタデータ) (2024-05-01T02:27:59Z) - Take the Bull by the Horns: Hard Sample-Reweighted Continual Training
Improves LLM Generalization [165.98557106089777]
大きな言語モデル(LLM)の能力を高めることが大きな課題だ。
本研究は,従来の事前学習データセットを用いたLCMの光連続訓練に関する実証的戦略から始まった。
次に、この戦略をインスタンス重み付け分散ロバスト最適化の原則化されたフレームワークに定式化します。
論文 参考訳(メタデータ) (2024-02-22T04:10:57Z) - A Lightweight Parallel Framework for Blind Image Quality Assessment [7.9562077122537875]
ブラインド画像品質評価(BIQA)のための軽量並列フレームワーク(LPF)を提案する。
まず,事前学習した特徴抽出ネットワークを用いて視覚特徴を抽出し,視覚特徴を変換するための簡易で効果的な特徴埋め込みネットワーク(FEN)を構築した。
本稿では,サンプルレベルのカテゴリ予測タスクとバッチレベルの品質比較タスクを含む,新たな2つのサブタスクを提案する。
論文 参考訳(メタデータ) (2024-02-19T10:56:58Z) - Tackling Diverse Minorities in Imbalanced Classification [80.78227787608714]
不均衡データセットは、様々な現実世界のアプリケーションで一般的に見られ、分類器の訓練において重要な課題が提示されている。
マイノリティクラスとマイノリティクラスの両方のデータサンプルを混合することにより、反復的に合成サンプルを生成することを提案する。
提案するフレームワークの有効性を,7つの公開ベンチマークデータセットを用いて広範な実験により実証する。
論文 参考訳(メタデータ) (2023-08-28T18:48:34Z) - A Quality Aware Sample-to-Sample Comparison for Face Recognition [13.96448286983864]
この研究は、サンプルレベルで品質を意識した学習プロセスを分類訓練パラダイム(QAFace)に統合する。
本手法は,トレーニングデータセットの認識可能な低品質サンプルに適応的に注目する。
論文 参考訳(メタデータ) (2023-06-06T20:28:04Z) - OTFace: Hard Samples Guided Optimal Transport Loss for Deep Face
Representation [31.220594076407444]
大規模な顔の変動のため、野生での顔の表現は非常に難しい。
本稿では,ディープフェイス表現のためのハードサンプル誘導最適トランスポート(OT)ロスを提案する。
論文 参考訳(メタデータ) (2022-03-28T02:57:04Z) - Jo-SRC: A Contrastive Approach for Combating Noisy Labels [58.867237220886885]
Jo-SRC (Joint Sample Selection and Model Regularization based on Consistency) というノイズロバスト手法を提案する。
具体的には、対照的な学習方法でネットワークをトレーニングする。
各サンプルの2つの異なるビューからの予測は、クリーンまたは分布不足の「可能性」を推定するために使用されます。
論文 参考訳(メタデータ) (2021-03-24T07:26:07Z) - Multi-Scale Positive Sample Refinement for Few-Shot Object Detection [61.60255654558682]
Few-shot Object Detection (FSOD) は、ディテクターがトレーニングインスタンスをほとんど持たない未確認のクラスに適応するのに役立つ。
FSODにおけるオブジェクトスケールを拡張化するためのMPSR(Multi-scale Positive Sample Refinement)アプローチを提案する。
MPSRは、オブジェクトピラミッドとして多スケールの正のサンプルを生成し、様々なスケールで予測を洗練させる。
論文 参考訳(メタデータ) (2020-07-18T09:48:29Z) - Feature Quantization Improves GAN Training [126.02828112121874]
識別器の特徴量子化(FQ)は、真と偽のデータの両方を共有離散空間に埋め込む。
本手法は,既存のGANモデルに容易に接続でき,訓練における計算オーバーヘッドがほとんどない。
論文 参考訳(メタデータ) (2020-04-05T04:06:50Z) - When Relation Networks meet GANs: Relation GANs with Triplet Loss [110.7572918636599]
GAN(Generative Adversarial Network)の学習安定性はいまだに悩みの種である
本稿では,判別器のための関係ネットワークアーキテクチャについて検討し,より優れた一般化と安定性を実現する三重項損失を設計する。
ベンチマークデータセットの実験により、提案された関係判別器と新たな損失は、可変視覚タスクに大幅な改善をもたらすことが示された。
論文 参考訳(メタデータ) (2020-02-24T11:35:28Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。