論文の概要: Towards robustness under occlusion for face recognition
- arxiv url: http://arxiv.org/abs/2109.09083v1
- Date: Sun, 19 Sep 2021 08:27:57 GMT
- ステータス: 処理完了
- システム内更新日: 2021-09-21 16:55:33.133030
- Title: Towards robustness under occlusion for face recognition
- Title(参考訳): 顔認識における隠蔽下での頑健性に向けて
- Authors: Tomas M. Borges and Teofilo E. de Campos and Ricardo de Queiroz
- Abstract要約: 本稿では,ResNetのバックボーンを用いた顔認識パイプラインの性能に及ぼすオクルージョンの影響を評価する。
入力画像に適用した8種類のオクルージョンマスクを設計した。
閉塞下でのロバスト性を高めるために,我々は2つのアプローチを踏襲した。
2つ目はCutmixで、長方形のパッチを使ってトレーニング画像とラベルを混ぜる正規化戦略である。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In this paper, we evaluate the effects of occlusions in the performance of a
face recognition pipeline that uses a ResNet backbone. The classifier was
trained on a subset of the CelebA-HQ dataset containing 5,478 images from 307
classes, to achieve top-1 error rate of 17.91%. We designed 8 different
occlusion masks which were applied to the input images. This caused a
significant drop in the classifier performance: its error rate for each mask
became at least two times worse than before. In order to increase robustness
under occlusions, we followed two approaches. The first is image inpainting
using the pre-trained pluralistic image completion network. The second is
Cutmix, a regularization strategy consisting of mixing training images and
their labels using rectangular patches, making the classifier more robust
against input corruptions. Both strategies revealed effective and interesting
results were observed. In particular, the Cutmix approach makes the network
more robust without requiring additional steps at the application time, though
its training time is considerably longer. Our datasets containing the different
occlusion masks as well as their inpainted counterparts are made publicly
available to promote research on the field.
- Abstract(参考訳): 本稿では,ResNetのバックボーンを用いた顔認識パイプラインの性能に及ぼすオクルージョンの影響を評価する。
分類器は、307クラスの5,478の画像を含むCelebA-HQデータセットのサブセットで訓練され、トップ1エラー率は17.91%に達した。
入力画像に適用した8種類のオクルージョンマスクを設計した。
これにより分類器の性能が大幅に低下し、各マスクのエラー率は以前よりも少なくとも2倍悪化した。
咬合下でのロバスト性を高めるため,2つのアプローチを行った。
第1は、事前学習された多元的画像補完ネットワークを用いた画像インペインティングである。
2つ目はCutmixである。これはトレーニングイメージとラベルを長方形のパッチを使って混ぜた正規化戦略であり、分類器は入力の破損に対してより堅牢である。
どちらの戦略も効果的で興味深い結果が得られた。
特にcutmixアプローチは、トレーニング時間がかなり長いにもかかわらず、アプリケーション時に追加のステップを必要とせずにネットワークをより堅牢にする。
異なるオクルージョンマスクを含むデータセットとその塗装済みのデータセットは、この分野の研究を促進するために公開されています。
関連論文リスト
- Frequency-Guided Masking for Enhanced Vision Self-Supervised Learning [49.275450836604726]
本稿では、事前学習の有効性を大幅に向上させる、新しい周波数ベースの自己監視学習(SSL)手法を提案する。
我々は、知識蒸留によって強化された2ブランチのフレームワークを使用し、モデルがフィルタされた画像と原画像の両方を入力として取り込むことを可能にする。
論文 参考訳(メタデータ) (2024-09-16T15:10:07Z) - Variance-insensitive and Target-preserving Mask Refinement for
Interactive Image Segmentation [68.16510297109872]
ポイントベースのインタラクティブなイメージセグメンテーションは、セマンティックセグメンテーションや画像編集といったアプリケーションにおけるマスクアノテーションの負担を軽減することができる。
本稿では,ユーザ入力の少ないセグメンテーション品質を向上する新しい手法である可変無感・ターゲット保存マスクリファインメントを提案する。
GrabCut、バークレー、SBD、DAVISデータセットの実験は、インタラクティブな画像セグメンテーションにおける我々の手法の最先端性能を実証している。
論文 参考訳(メタデータ) (2023-12-22T02:31:31Z) - Masking Improves Contrastive Self-Supervised Learning for ConvNets, and Saliency Tells You Where [63.61248884015162]
我々は、畳み込みニューラルネットワークのためのコントラスト学習フレームワークにマスキング操作を組み込むことの負担を軽減することを目的としている。
マスクされた領域が、前景と背景の間に均等に分散されていることを考慮し、塩分濃度の制約を明示的に考慮することを提案する。
論文 参考訳(メタデータ) (2023-09-22T09:58:38Z) - Learning to Mask and Permute Visual Tokens for Vision Transformer
Pre-Training [59.923672191632065]
我々はMasked and Permuted Vision Transformer(MaPeT)という自己教師型事前学習手法を提案する。
MaPeTは、自動回帰および置換予測を使用して、パッチ内依存関係をキャプチャする。
以上の結果から,MaPeTはImageNet上での競合性能を実証した。
論文 参考訳(メタデータ) (2023-06-12T18:12:19Z) - Efficient Masked Autoencoders with Self-Consistency [34.7076436760695]
マスク付き画像モデリング(MIM)はコンピュータビジョンにおける強力な自己教師付き事前学習手法として認識されている。
本研究では,自己整合性(EMAE)を有する効率的なマスク付きオートエンコーダを提案し,事前学習効率を向上させる。
EMAEは、画像分類、オブジェクト検出、セマンティックセグメンテーションなど、さまざまな下流タスクにおける最先端の転送能力を一貫して取得する。
論文 参考訳(メタデータ) (2023-02-28T09:21:12Z) - What You See is What You Classify: Black Box Attributions [61.998683569022006]
我々は、トレーニング済みのブラックボックス分類器であるExpplanandumの属性を予測するために、ディープネットワークであるExplainerを訓練する。
既存のほとんどのアプローチとは異なり、我々の手法はクラス固有のマスクを直接生成することができる。
我々の属性は、視覚的および定量的に確立された方法よりも優れていることを示す。
論文 参考訳(メタデータ) (2022-05-23T12:30:04Z) - Mix-up Self-Supervised Learning for Contrast-agnostic Applications [33.807005669824136]
コントラストに依存しないアプリケーションのための,最初の混合型自己教師型学習フレームワークを提案する。
クロスドメイン・ミックスアップに基づく画像間の低分散に対処し、画像再構成と透明性予測に基づくプレテキストタスクを構築する。
論文 参考訳(メタデータ) (2022-04-02T16:58:36Z) - Observations on K-image Expansion of Image-Mixing Augmentation for
Classification [33.99556142456945]
本論文は, ディリクレ前処理に基づく新しいK-image混合増量法を導出する。
本手法は,従来の2画像法よりも,分類精度,損失ランドスケープの形状,対向ロバスト性などの広範な実験と解析により,より堅牢で一般化された分類器を訓練できることを示す。
論文 参考訳(メタデータ) (2021-10-08T16:58:20Z) - Suppressing Uncertainties for Large-Scale Facial Expression Recognition [81.51495681011404]
本稿では,不確実性を効果的に抑制し,深層ネットワークが不確実な顔画像に過度に収まらないような,シンプルで効率的なセルフキュアネットワーク(SCN)を提案する。
公開ベンチマークの結果、我々のSCNは現在の最先端メソッドよりも、RAF-DBで textbf88.14%、AffectNetで textbf60.23%、FERPlusで textbf89.35% を上回りました。
論文 参考訳(メタデータ) (2020-02-24T17:24:36Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。