論文の概要: M^2 Deep-ID: A Novel Model for Multi-View Face Identification Using
Convolutional Deep Neural Networks
- arxiv url: http://arxiv.org/abs/2001.07871v1
- Date: Wed, 22 Jan 2020 04:13:18 GMT
- ステータス: 処理完了
- システム内更新日: 2023-01-07 18:41:09.424875
- Title: M^2 Deep-ID: A Novel Model for Multi-View Face Identification Using
Convolutional Deep Neural Networks
- Title(参考訳): M^2 Deep-ID:畳み込みニューラルネットワークを用いた多視点顔識別の新しいモデル
- Authors: Sara Shahsavarani, Morteza Analoui and Reza Shoja Ghiass
- Abstract要約: 本稿では,この課題に対処する多視点深層顔認識(MVDFR)システムを提案する。
この文脈では、異なる視点下で各被験者の複数の2次元画像が提案したディープニューラルネットワークに入力される。
その結果,提案手法の精度は99.8%,最先端手法の精度は97%であった。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Despite significant advances in Deep Face Recognition (DFR) systems,
introducing new DFRs under specific constraints such as varying pose still
remains a big challenge. Most particularly, due to the 3D nature of a human
head, facial appearance of the same subject introduces a high intra-class
variability when projected to the camera image plane. In this paper, we propose
a new multi-view Deep Face Recognition (MVDFR) system to address the mentioned
challenge. In this context, multiple 2D images of each subject under different
views are fed into the proposed deep neural network with a unique design to
re-express the facial features in a single and more compact face descriptor,
which in turn, produces a more informative and abstract way for face
identification using convolutional neural networks. To extend the functionality
of our proposed system to multi-view facial images, the golden standard Deep-ID
model is modified in our proposed model. The experimental results indicate that
our proposed method yields a 99.8% accuracy, while the state-of-the-art method
achieves a 97% accuracy. We also gathered the Iran University of Science and
Technology (IUST) face database with 6552 images of 504 subjects to accomplish
our experiments.
- Abstract(参考訳): ディープ顔認識(DFR)システムの大幅な進歩にもかかわらず、様々なポーズのような特定の制約の下で新しいDFRを導入することは依然として大きな課題である。
特に、人間の頭部の3d特性により、同じ被写体の顔の外観は、カメラ画像平面に投影された際に高いクラス内変動性をもたらす。
本稿では,上記の課題に対処するために,多視点深層顔認識(mvdfr)システムを提案する。
この文脈では、異なる視点下で各被験者の複数の2D画像が、単一のよりコンパクトな顔ディスクリプタで顔の特徴を再表現するユニークな設計で提案されたディープニューラルネットワークに入力され、畳み込みニューラルネットワークを用いたより情報的で抽象的な顔識別方法が生成される。
提案方式の機能を多視点顔画像に拡張するため,本モデルでは黄金標準のディープIDモデルを修正した。
実験の結果,提案手法は99.8%,最先端手法は97%の精度が得られることがわかった。
また,504名の被験者の6552枚の画像を用いて,イラン科学技術大学(iust)の顔データベースを収集し,実験を行った。
関連論文リスト
- DeepFidelity: Perceptual Forgery Fidelity Assessment for Deepfake
Detection [67.3143177137102]
ディープフェイク検出(Deepfake detection)とは、画像やビデオにおいて、人工的に生成された顔や編集された顔を検出すること。
本稿では,実顔と偽顔とを適応的に識別するDeepFidelityという新しいDeepfake検出フレームワークを提案する。
論文 参考訳(メタデータ) (2023-12-07T07:19:45Z) - Physically-Based Face Rendering for NIR-VIS Face Recognition [165.54414962403555]
近赤外(NIR)と可視(VIS)の顔マッチングは、大きなドメインギャップのために困難である。
NIR-VIS対顔画像生成のための新しい手法を提案する。
アイデンティティ特徴学習を容易にするために,IDentityに基づく最大平均離散性(ID-MMD)損失を提案する。
論文 参考訳(メタデータ) (2022-11-11T18:48:16Z) - GMFIM: A Generative Mask-guided Facial Image Manipulation Model for
Privacy Preservation [0.7734726150561088]
入力顔画像に知覚不可能な編集を適用するために,GANをベースとしたマスク誘導顔画像マニピュレーションモデルを提案する。
我々のモデルは、最先端の手法と比較して、自動顔認識システムに対してより良い性能を実現することができる。
論文 参考訳(メタデータ) (2022-01-10T14:09:14Z) - End2End Occluded Face Recognition by Masking Corrupted Features [82.27588990277192]
最先端の一般的な顔認識モデルは、隠蔽された顔画像に対してうまく一般化しない。
本稿では,1つのエンドツーエンドのディープニューラルネットワークに基づいて,オクルージョンに頑健な新しい顔認識手法を提案する。
我々のアプローチは、深い畳み込みニューラルネットワークから破損した特徴を発見し、動的に学習されたマスクによってそれらをきれいにする。
論文 参考訳(メタデータ) (2021-08-21T09:08:41Z) - Facial Expressions Recognition with Convolutional Neural Networks [0.0]
ニューラルネットワークを利用して表情認識システム(FER)を実装する。
我々は、追加のトレーニングデータを用いることなく、FER2013データセット上で、最先端のシングルネットワーク精度の70.10%を実証する。
論文 参考訳(メタデータ) (2021-07-19T06:41:00Z) - Towards NIR-VIS Masked Face Recognition [47.00916333095693]
近赤外可視(NIR-VIS)顔認識は異種顔認識において最も一般的な症例である。
2つのドメインの顔表現で共有される相互情報を最大化するための新しいトレーニング手法を提案する。
さらに、既存のNIR画像からマスク面を合成するために、3次元顔再構成に基づくアプローチを用いる。
論文 参考訳(メタデータ) (2021-04-14T10:40:09Z) - FusiformNet: Extracting Discriminative Facial Features on Different
Levels [0.0]
顔の特徴を識別する特徴抽出フレームワークFusiformNetを提案する。
FusiformNetは、外部データ、画像拡張、正規化、特別な損失関数をラベル付けせずに96.67%の最先端の精度を達成した。
一般的な特徴と局所的な特徴の両方を抽出できる能力を考えると、FusiformNetの機能は顔認識に限らず、他のDNNベースのタスクにも拡張される可能性がある。
論文 参考訳(メタデータ) (2020-11-01T18:00:59Z) - The FaceChannel: A Fast & Furious Deep Neural Network for Facial
Expression Recognition [71.24825724518847]
顔の表情の自動認識(FER)の最先端モデルは、非常に深いニューラルネットワークに基づいており、訓練には効果的だがかなり高価である。
私たちは、一般的なディープニューラルネットワークよりもはるかに少ないパラメータを持つ軽量ニューラルネットワークであるFaceChannelを形式化します。
我々は、私たちのモデルがFERの現在の最先端技術に匹敵するパフォーマンスを達成する方法を実証する。
論文 参考訳(メタデータ) (2020-09-15T09:25:37Z) - DotFAN: A Domain-transferred Face Augmentation Network for Pose and
Illumination Invariant Face Recognition [94.96686189033869]
本稿では,3次元モデルを用いたドメイン転送型顔強調ネットワーク(DotFAN)を提案する。
DotFANは、他のドメインから収集された既存のリッチフェイスデータセットから抽出された知識に基づいて、入力顔の一連の変種を生成することができる。
実験によると、DotFANは、クラス内の多様性を改善するために、小さな顔データセットを増やすのに有益である。
論文 参考訳(メタデータ) (2020-02-23T08:16:34Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。