論文の概要: CRAFT: Contextual Re-Activation of Filters for face recognition Training
- arxiv url: http://arxiv.org/abs/2312.00072v2
- Date: Tue, 5 Dec 2023 01:58:50 GMT
- ステータス: 処理完了
- システム内更新日: 2023-12-06 18:49:57.759595
- Title: CRAFT: Contextual Re-Activation of Filters for face recognition Training
- Title(参考訳): CRAFT:顔認識訓練のためのフィルタの文脈再活性化
- Authors: Aman Bhatta, Domingo Mery, Haiyu Wu, Kevin W. Bowyer
- Abstract要約: 我々は「CRAFT: 顔認識訓練用フィルタのコンテキスト再活性化」を提案する。
CRAFTは,非活性フィルタの割合を平均で44%から32%に減らし,標準トレーニングでは見つからないフィルタパターンを発見する。
CRAFTは、リアクションのない標準トレーニングと比較して、標準的な顔認識ベンチマークデータセットでモデル精度が向上することを示した。
- 参考スコア(独自算出の注目度): 11.490358127866102
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The first layer of a deep CNN backbone applies filters to an image to extract
the basic features available to later layers. During training, some filters may
go inactive, mean ing all weights in the filter approach zero. An inactive fil
ter in the final model represents a missed opportunity to extract a useful
feature. This phenomenon is especially prevalent in specialized CNNs such as
for face recogni tion (as opposed to, e.g., ImageNet). For example, in one the
most widely face recognition model (ArcFace), about half of the convolution
filters in the first layer are inactive. We propose a novel approach designed
and tested specif ically for face recognition networks, known as "CRAFT:
Contextual Re-Activation of Filters for Face Recognition Training". CRAFT
identifies inactive filters during training and reinitializes them based on the
context of strong filters at that stage in training. We show that CRAFT reduces
fraction of inactive filters from 44% to 32% on average and discovers filter
patterns not found by standard training. Compared to standard training without
reactivation, CRAFT demonstrates enhanced model accuracy on standard
face-recognition benchmark datasets including AgeDB-30, CPLFW, LFW, CALFW, and
CFP-FP, as well as on more challenging datasets like IJBB and IJBC.
- Abstract(参考訳): ディープcnnバックボーンの第1レイヤは、イメージにフィルタを適用して、後のレイヤで使用可能な基本的な機能を抽出する。
トレーニング中、一部のフィルタは非アクティブになり、フィルター内の全ての重みがゼロに近づく。
最終モデルの非アクティブfil terは、有用な機能を抽出する機会の欠如を表している。
この現象は、顔認識(ImageNetなどとは対照的に)のような特殊なCNNで特に顕著である。
例えば、最も広く使われている顔認識モデル(arcface)では、第1層の畳み込みフィルタの約半分が非アクティブである。
本研究は,顔認識ネットワークの仕様を高度に設計・テストする新しい手法であるcraft: context re-activated of filter for face recognition trainingを提案する。
CRAFTはトレーニング中の不活性フィルタを特定し、トレーニングの段階で強いフィルタのコンテキストに基づいて再起動する。
CRAFTは,非活性フィルタの割合を平均で44%から32%に減らし,標準トレーニングでは見つからないフィルタパターンを発見する。
CRAFTは、リアクティベーションのない標準的なトレーニングと比較して、AgeDB-30、CPLFW、LFW、CALFW、CFP-FPといった標準的な顔認識ベンチマークデータセットや、IJBBやIJBCといったより困難なデータセットに対して、モデルの精度を向上することを示した。
関連論文リスト
- FaceFilterSense: A Filter-Resistant Face Recognition and Facial Attribute Analysis Framework [1.673834743879962]
面白い自撮りフィルターは、顔の生体認証システムの機能に大きく影響を与えている。
現在、顔のキーポイントを歪めているARベースのフィルターやフィルターは、最近流行し、裸眼でも顔が認識不能になっている。
これらの制約を緩和するため、我々は最新のフィルタの全体的影響分析を行い、フィルタ画像を用いたユーザ認識モデルを提案する。
論文 参考訳(メタデータ) (2024-04-12T07:04:56Z) - Filter Pruning for Efficient CNNs via Knowledge-driven Differential
Filter Sampler [103.97487121678276]
フィルタプルーニングは同時に計算を加速し、CNNのメモリオーバーヘッドを低減する。
本稿では,MFM(Masked Filter Modeling)フレームワークを用いた知識駆動型微分フィルタサンプリング(KDFS)を提案する。
論文 参考訳(メタデータ) (2023-07-01T02:28:41Z) - IterativePFN: True Iterative Point Cloud Filtering [18.51768749680731]
基本的な3Dビジョンタスクは、ポイントクラウドフィルタリング(point cloud filtering)またはデノイング(denoising)として知られるノイズの除去である。
本報告では,本フィルタを内部でモデル化する複数のイテレーションで構成されたIterativePFN(Iterative Cloud Filtering Network)を提案する。
我々の手法は最先端の手法よりも優れた性能が得られる。
論文 参考訳(メタデータ) (2023-04-04T04:47:44Z) - Unsharp Mask Guided Filtering [53.14430987860308]
本論文の目的は,フィルタ中の構造伝達の重要性を強調した画像フィルタリングである。
アンシャープマスキングにインスパイアされたガイドフィルタの新しい簡易な定式化を提案する。
我々の定式化は低域フィルタに先立ってフィルタを楽しみ、単一の係数を推定することで明示的な構造伝達を可能にする。
論文 参考訳(メタデータ) (2021-06-02T19:15:34Z) - Data Agnostic Filter Gating for Efficient Deep Networks [72.4615632234314]
現在のフィルタプルーニング法は主に特徴写像を利用してフィルタの重要なスコアを生成し、より小さなスコアのプルーンを生成する。
本稿では,Daggerモジュールと呼ばれる補助的ネットワークを用いてプルーニングを誘導するデータフィルタプルーニング手法を提案する。
さらに,特定のFLOP制約でプルーネフィルタを支援するために,明示的なFLOPを意識した正規化を活用して,プルーニングフィルタを直接対象のFLOPに向けて推進する。
論文 参考訳(メタデータ) (2020-10-28T15:26:40Z) - Training Interpretable Convolutional Neural Networks by Differentiating
Class-specific Filters [64.46270549587004]
畳み込みニューラルネットワーク(CNN)は、様々なタスクでうまく使われている。
CNNは、しばしば「ブラックボックス」と解釈可能性の欠如とみなされる。
本稿では,クラス固有のフィルタを奨励することで,解釈可能なCNNを訓練する新しい手法を提案する。
論文 参考訳(メタデータ) (2020-07-16T09:12:26Z) - Filter Grafting for Deep Neural Networks: Reason, Method, and
Cultivation [86.91324735966766]
フィルタは現代の畳み込みニューラルネットワーク(CNN)のキーコンポーネントである
本稿では,この目的を達成するためにフィルタグラフト(textbfMethod)を導入する。
我々は,フィルタの情報を測定するための新しい基準と,グラフトされた情報をネットワーク間でバランスをとるための適応重み付け戦略を開発する。
論文 参考訳(メタデータ) (2020-04-26T08:36:26Z) - Filter Grafting for Deep Neural Networks [71.39169475500324]
ディープニューラルネットワーク(DNN)の表現能力向上を目的としたフィルタグラフト
我々は,フィルタの情報を測定するエントロピーベースの基準と,ネットワーク間のグラフト情報のバランスをとるための適応重み付け戦略を開発する。
例えば、グラフトされたMobileNetV2は、CIFAR-100データセットで非グラフトされたMobileNetV2を約7%上回っている。
論文 参考訳(メタデータ) (2020-01-15T03:18:57Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。