論文の概要: DiffProb: Data Pruning for Face Recognition
- arxiv url: http://arxiv.org/abs/2505.15272v1
- Date: Wed, 21 May 2025 08:49:07 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-22 15:42:59.327411
- Title: DiffProb: Data Pruning for Face Recognition
- Title(参考訳): DiffProb: 顔認識のためのデータプルーニング
- Authors: Eduarda Caldeira, Jan Niklas Kolf, Naser Damer, Fadi Boutros,
- Abstract要約: 本稿では,顔認識における最初のデータ解析手法であるDiffProbについて述べる。
DiffProbは、いくつかの設定でデータセットの最大50%をプルーするが、検証精度は向上する。
本手法はトレーニングコストとデータ量を大幅に削減し,効率的な顔認識訓練を実現する。
- 参考スコア(独自算出の注目度): 8.394561876328808
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Face recognition models have made substantial progress due to advances in deep learning and the availability of large-scale datasets. However, reliance on massive annotated datasets introduces challenges related to training computational cost and data storage, as well as potential privacy concerns regarding managing large face datasets. This paper presents DiffProb, the first data pruning approach for the application of face recognition. DiffProb assesses the prediction probabilities of training samples within each identity and prunes the ones with identical or close prediction probability values, as they are likely reinforcing the same decision boundaries, and thus contribute minimally with new information. We further enhance this process with an auxiliary cleaning mechanism to eliminate mislabeled and label-flipped samples, boosting data quality with minimal loss. Extensive experiments on CASIA-WebFace with different pruning ratios and multiple benchmarks, including LFW, CFP-FP, and IJB-C, demonstrate that DiffProb can prune up to 50% of the dataset while maintaining or even, in some settings, improving the verification accuracies. Additionally, we demonstrate DiffProb's robustness across different architectures and loss functions. Our method significantly reduces training cost and data volume, enabling efficient face recognition training and reducing the reliance on massive datasets and their demanding management.
- Abstract(参考訳): 顔認識モデルは、ディープラーニングの進歩と大規模データセットの可用性により、大幅に進歩している。
しかし、大量のアノテートデータセットへの依存は、計算コストとデータストレージのトレーニングに関する課題と、大きな顔データセットの管理に関する潜在的なプライバシー上の懸念をもたらす。
本稿では,顔認識における最初のデータ解析手法であるDiffProbについて述べる。
DiffProbは、各アイデンティティ内のトレーニングサンプルの予測確率を評価し、同じ決定境界を補強する可能性が高いため、同一または近い予測確率値を持つサンプルをプーンし、新しい情報で最小限に寄与する。
さらに, ラベル付きおよびラベル付きサンプルを除去し, 損失を最小限に抑えながらデータ品質を向上する補助的な洗浄機構により, このプロセスをさらに強化する。
LFW、CFP-FP、IJB-Cなど、さまざまなプルーニング比率と複数のベンチマークを持つCASIA-WebFaceに関する大規模な実験は、DiffProbがデータセットの最大50%をプルーすると同時に、いくつかの設定で検証精度を向上できることを示した。
さらに、異なるアーキテクチャと損失関数にまたがるDiffProbの堅牢性を示す。
本手法は,学習コストとデータ量を大幅に削減し,顔認識訓練を効率化し,大量のデータセットとその要求管理への依存度を低減させる。
関連論文リスト
- Capturing the Temporal Dependence of Training Data Influence [100.91355498124527]
我々は、訓練中にデータポイントを除去する影響を定量化する、軌跡特異的な離脱の影響の概念を定式化する。
軌道固有LOOの効率的な近似を可能にする新しい手法であるデータ値埋め込みを提案する。
データバリューの埋め込みは、トレーニングデータの順序付けをキャプチャするので、モデルトレーニングのダイナミクスに関する貴重な洞察を提供する。
論文 参考訳(メタデータ) (2024-12-12T18:28:55Z) - Pseudo-Probability Unlearning: Towards Efficient and Privacy-Preserving Machine Unlearning [59.29849532966454]
本稿では,PseudoProbability Unlearning (PPU)を提案する。
提案手法は,最先端の手法に比べて20%以上の誤りを忘れる改善を実現している。
論文 参考訳(メタデータ) (2024-11-04T21:27:06Z) - Distribution-Level Feature Distancing for Machine Unlearning: Towards a Better Trade-off Between Model Utility and Forgetting [4.220336689294245]
本稿では,タスク関連特徴相関を保ちつつ,効率的にインスタンスを破棄する新しい手法である分散レベル特徴分散(DLFD)を提案する。
提案手法は, 特徴分布を忘れ試料と明確に異なるように最適化し, 単一の学習エポック内で有効結果を得る。
論文 参考訳(メタデータ) (2024-09-23T06:51:10Z) - PairCFR: Enhancing Model Training on Paired Counterfactually Augmented Data through Contrastive Learning [49.60634126342945]
Counterfactually Augmented Data (CAD)は、既存のデータサンプルのラベルを他のクラスに戻すのに、最小限かつ十分な修正を適用することで、新しいデータサンプルを作成する。
近年の研究では、CADを用いたトレーニングが、他の重要な文脈情報を無視しながら、モデルが修正機能に過度にフォーカスする可能性があることが示されている。
我々は、対実的手がかりの学習に加えて、グローバルな特徴アライメントを促進するために、対照的な学習を採用する。
論文 参考訳(メタデータ) (2024-06-09T07:29:55Z) - Cluster-level pseudo-labelling for source-free cross-domain facial
expression recognition [94.56304526014875]
表情認識のためのSFUDA法を提案する。
本手法は,自己教師付き事前学習を利用して,対象データから優れた特徴表現を学習する。
提案手法の有効性を4つの適応方式で検証し,FERに適用した場合,既存のSFUDA法より一貫して優れていることを示す。
論文 参考訳(メタデータ) (2022-10-11T08:24:50Z) - Omni-supervised Facial Expression Recognition via Distilled Data [120.11782405714234]
ネットワークトレーニングにおいて,信頼度の高いサンプルを多量のラベルのないデータで活用するためのオムニ教師付き学習を提案する。
我々は,新しいデータセットが学習したFERモデルの能力を大幅に向上させることができることを実験的に検証した。
そこで本研究では,生成したデータセットを複数のクラスワイド画像に圧縮するために,データセット蒸留戦略を適用することを提案する。
論文 参考訳(メタデータ) (2020-05-18T09:36:51Z) - Boosting Unconstrained Face Recognition with Auxiliary Unlabeled Data [59.85605718477639]
本稿では,ラベルのない顔を用いて一般化可能な顔表現を学習する手法を提案する。
制約のないデータセットに対する実験結果から、十分な多様性を持つ少量のラベル付きデータが認識性能を向上させる可能性が示唆された。
論文 参考訳(メタデータ) (2020-03-17T20:58:56Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。