論文の概要: Face Attributes as Cues for Deep Face Recognition Understanding
- arxiv url: http://arxiv.org/abs/2105.07054v1
- Date: Fri, 14 May 2021 19:54:24 GMT
- ステータス: 処理完了
- システム内更新日: 2021-05-20 05:37:02.952045
- Title: Face Attributes as Cues for Deep Face Recognition Understanding
- Title(参考訳): 深層顔認識のためのキューとしての顔属性
- Authors: Matheus Alves Diniz and William Robson Schwartz
- Abstract要約: 可変選択手法を用いて,隠れレイヤを用いて顔属性を予測する。
性別、眼鏡、帽子の使用は、1つの神経出力だけを使用して各属性を予測しても96%以上の精度で予測できます。
顔の識別に最適化されたDCNNの内部には、これらの属性に最適化されたDCNNとほぼ同じ精度で顔属性をコードする潜在ニューロンが存在することを示す。
- 参考スコア(独自算出の注目度): 4.132205118175555
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Deeply learned representations are the state-of-the-art descriptors for face
recognition methods. These representations encode latent features that are
difficult to explain, compromising the confidence and interpretability of their
predictions. Most attempts to explain deep features are visualization
techniques that are often open to interpretation. Instead of relying only on
visualizations, we use the outputs of hidden layers to predict face attributes.
The obtained performance is an indicator of how well the attribute is
implicitly learned in that layer of the network. Using a variable selection
technique, we also analyze how these semantic concepts are distributed inside
each layer, establishing the precise location of relevant neurons for each
attribute. According to our experiments, gender, eyeglasses and hat usage can
be predicted with over 96% accuracy even when only a single neural output is
used to predict each attribute. These performances are less than 3 percentage
points lower than the ones achieved by deep supervised face attribute networks.
In summary, our experiments show that, inside DCNNs optimized for face
identification, there exists latent neurons encoding face attributes almost as
accurately as DCNNs optimized for these attributes.
- Abstract(参考訳): 深い学習を受けた表現は、顔認識手法の最先端の記述子である。
これらの表現は説明が難しい潜在特徴をエンコードし、その予測の信頼性と解釈可能性に妥協する。
深い特徴を説明するほとんどの試みは、しばしば解釈に開放される可視化技術である。
可視化のみに頼るのではなく、隠れたレイヤの出力を使って顔属性を予測します。
得られた性能は、その属性がネットワークのその層で暗黙的に学習されるかを示す指標である。
可変選択手法を用いて,これらの意味概念が各層内でどのように分布するかを分析し,各属性の関連ニューロンの正確な位置を確立する。
実験によると、各属性の予測に1つの神経出力のみを使用していても、性別、眼鏡、帽子の使用量を96%以上精度で予測できる。
これらのパフォーマンスは、deep supervised face attribute networkが達成したパフォーマンスよりも3ポイント低い。
本実験により, 顔の識別に最適化されたDCNNの内部には, 顔属性をコードする潜在ニューロンが存在することがわかった。
関連論文リスト
- CIAO! A Contrastive Adaptation Mechanism for Non-Universal Facial
Expression Recognition [80.07590100872548]
本稿では、顔エンコーダの最後の層に異なるデータセットの特定の感情特性を適応させるメカニズムであるContrastive Inhibitory Adaptati On(CIAO)を提案する。
CIAOは、非常にユニークな感情表現を持つ6つの異なるデータセットに対して、表情認識性能が改善されている。
論文 参考訳(メタデータ) (2022-08-10T15:46:05Z) - TransFA: Transformer-based Representation for Face Attribute Evaluation [87.09529826340304]
我々はtextbfTransFA を用いたtextbfattribute 評価のための新しい textbf Transformer 表現を提案する。
提案するTransFAは,最先端手法と比較して優れた性能を示す。
論文 参考訳(メタデータ) (2022-07-12T10:58:06Z) - AGA-GAN: Attribute Guided Attention Generative Adversarial Network with
U-Net for Face Hallucination [15.010153819096056]
本稿では,属性誘導注意(AGA)モジュールを用いた属性誘導注意生成ネットワークを提案する。
AGA-GANとAGA-GAN+U-Netフレームワークは、他の最先端のハロシン化技術よりも優れている。
論文 参考訳(メタデータ) (2021-11-20T13:43:03Z) - End2End Occluded Face Recognition by Masking Corrupted Features [82.27588990277192]
最先端の一般的な顔認識モデルは、隠蔽された顔画像に対してうまく一般化しない。
本稿では,1つのエンドツーエンドのディープニューラルネットワークに基づいて,オクルージョンに頑健な新しい顔認識手法を提案する。
我々のアプローチは、深い畳み込みニューラルネットワークから破損した特徴を発見し、動的に学習されたマスクによってそれらをきれいにする。
論文 参考訳(メタデータ) (2021-08-21T09:08:41Z) - PASS: Protected Attribute Suppression System for Mitigating Bias in Face
Recognition [55.858374644761525]
顔認識ネットワークは、識別分類のために訓練されている間、機密属性に関する情報を符号化する。
既存のバイアス緩和アプローチでは、エンドツーエンドのトレーニングが必要であり、高い精度を達成できない。
PASS(Protected Attribute Suppression System)と呼ばれる記述子に基づく逆バイアス除去手法を提案する。
パスは、以前に訓練されたハイパフォーマンスネットワークから得られた記述子を使って、アイデンティティを分類し、機密属性のエンコーディングを同時に削減することができる。
論文 参考訳(メタデータ) (2021-08-09T00:39:22Z) - Progressive Spatio-Temporal Bilinear Network with Monte Carlo Dropout
for Landmark-based Facial Expression Recognition with Uncertainty Estimation [93.73198973454944]
提案手法の性能は, 広く使用されている3つのデータセットで評価される。
ビデオベースの最先端の手法に匹敵するが、複雑さははるかに少ない。
論文 参考訳(メタデータ) (2021-06-08T13:40:30Z) - Facial expression and attributes recognition based on multi-task
learning of lightweight neural networks [9.162936410696409]
顔の識別と顔の属性の分類のための軽量畳み込みニューラルネットワークのマルチタスクトレーニングを検討する。
顔の表情を予測するためには,これらのネットワークを微調整する必要がある。
MobileNet、EfficientNet、RexNetアーキテクチャに基づくいくつかのモデルが提示される。
論文 参考訳(メタデータ) (2021-03-31T14:21:04Z) - Attribution Mask: Filtering Out Irrelevant Features By Recursively
Focusing Attention on Inputs of DNNs [13.960152426268769]
属性法は、入力特徴の重要な部分を強調することで、ディープニューラルネットワーク(DNN)の予測を視覚的に説明する属性を計算する。
本研究では,入力特徴の無関係部分をフィルタリングする属性を用いて,事前学習したDNNの分類精度を測定し,本手法の有効性を検証する。
論文 参考訳(メタデータ) (2021-02-15T04:12:04Z) - Implicit Saliency in Deep Neural Networks [15.510581400494207]
本稿では,既存の認識と局所化の深部構造が人間の視覚的正当性を予測できることを示す。
予測ミスマッチ仮説を教師なし方式で計算し,その暗黙の正当性を計算する。
実験の結果,この方法での塩分濃度の抽出は,最先端の教師付きアルゴリズムに対して測定した場合と同等の性能を示すことがわかった。
論文 参考訳(メタデータ) (2020-08-04T23:14:24Z) - CompGuessWhat?!: A Multi-task Evaluation Framework for Grounded Language
Learning [78.3857991931479]
本稿では,属性を用いたグラウンドド言語学習のための評価フレームワークGROLLAを提案する。
また、学習したニューラル表現の品質を評価するためのフレームワークの例として、新しいデータセットCompGuessWhat!?を提案する。
論文 参考訳(メタデータ) (2020-06-03T11:21:42Z) - Verifying Deep Learning-based Decisions for Facial Expression
Recognition [0.8137198664755597]
我々は、ニューラルネットワークを用いて表情を分類し、画素ベースの説明を作成する。
顔領域に対するバウンディングボックス法に基づいて,これらの視覚的説明を定量化する。
以上の結果から,ニューラルネットワークは最先端の結果を達成できることが示されたが,視覚的説明から,関連する顔面領域を考慮できないことが明らかとなった。
論文 参考訳(メタデータ) (2020-02-14T15:59:32Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。