論文の概要: Two-stream Convolutional Networks for Multi-frame Face Anti-spoofing
- arxiv url: http://arxiv.org/abs/2108.04032v1
- Date: Mon, 9 Aug 2021 13:35:30 GMT
- ステータス: 処理完了
- システム内更新日: 2021-08-10 19:44:05.361292
- Title: Two-stream Convolutional Networks for Multi-frame Face Anti-spoofing
- Title(参考訳): マルチフレーム対スプーフィングのための2ストリーム畳み込みネットワーク
- Authors: Zhuoyi Zhang, Cheng Jiang, Xiya Zhong, Chang Song, Yifeng Zhang
- Abstract要約: 本研究では,ライブとスプーフの顔の違いを効果的に把握する2ストリームモデルを提案する。
提案手法をSiw, Oulu-NPU, CASIA-MFSD, Replay-Attackのデータセット上で評価した。
- 参考スコア(独自算出の注目度): 1.9890930069402575
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Face anti-spoofing is an important task to protect the security of face
recognition. Most of previous work either struggle to capture discriminative
and generalizable feature or rely on auxiliary information which is unavailable
for most of industrial product. Inspired by the video classification work, we
propose an efficient two-stream model to capture the key differences between
live and spoof faces, which takes multi-frames and RGB difference as input
respectively. Feature pyramid modules with two opposite fusion directions and
pyramid pooling modules are applied to enhance feature representation. We
evaluate the proposed method on the datasets of Siw, Oulu-NPU, CASIA-MFSD and
Replay-Attack. The results show that our model achieves the state-of-the-art
results on most of datasets' protocol with much less parameter size.
- Abstract(参考訳): 顔の偽造は、顔認識のセキュリティを保護する重要な課題である。
以前の仕事のほとんどは、差別的で一般化可能な特徴を捉えようとするか、あるいは工業製品の大半では利用できない補助的な情報に依存するかのどちらかである。
映像分類作業に着想を得て,実顔とスプーフ顔の主な相違点を抽出し,複数フレームとRGBの相違点をそれぞれ入力として捉えた,効率的な2ストリームモデルを提案する。
2つの反対の融合方向を持つ特徴ピラミッドモジュールと、特徴表現を強化するためにピラミッドプーリングモジュールが適用される。
提案手法をSiw, Oulu-NPU, CASIA-MFSD, Replay-Attackのデータセット上で評価した。
その結果,本モデルでは,パラメータサイズがはるかに小さいほとんどのデータセットのプロトコル上で,最先端の結果が得られた。
関連論文リスト
- Dynamic Prototype Mask for Occluded Person Re-Identification [88.7782299372656]
既存の手法では、目に見える部分を識別するために、余分なネットワークによって提供される身体の手がかりを利用することで、この問題に対処している。
2つの自己明快な事前知識に基づく新しい動的プロトタイプマスク(DPM)を提案する。
この条件下では、隠蔽された表現は、選択された部分空間において自然にうまく整列することができる。
論文 参考訳(メタデータ) (2022-07-19T03:31:13Z) - Polyp-PVT: Polyp Segmentation with Pyramid Vision Transformers [124.01928050651466]
本稿では,Polyp-PVTと呼ばれる新しいタイプのPolypセグメンテーション手法を提案する。
提案モデルであるPolyp-PVTは,特徴の雑音を効果的に抑制し,その表現能力を大幅に向上させる。
論文 参考訳(メタデータ) (2021-08-16T07:09:06Z) - Efficient Two-Stream Network for Violence Detection Using Separable
Convolutional LSTM [0.0]
Separable Convolutional LSTM(SepConvLSTM)と予め訓練されたMobileNetを活用した効率的な2ストリームディープラーニングアーキテクチャを提案する。
SepConvLSTMは、ConvLSTMの各ゲートの畳み込み操作を深さ方向に分離可能な畳み込みに置き換えて構築されます。
我々のモデルは、大きくて挑戦的なrwf-2000データセットの精度を2%以上上回っている。
論文 参考訳(メタデータ) (2021-02-21T12:01:48Z) - Adaptive Context-Aware Multi-Modal Network for Depth Completion [107.15344488719322]
我々は,観測された空間コンテキストを捉えるために,グラフ伝搬を採用することを提案する。
次に、注意機構を伝搬に適用し、ネットワークが文脈情報を適応的にモデル化することを奨励する。
最後に、抽出したマルチモーダル特徴を効果的に活用するための対称ゲート融合戦略を導入する。
本稿では,Adaptive Context-Aware Multi-Modal Network (ACMNet) を2つのベンチマークで評価した。
論文 参考訳(メタデータ) (2020-08-25T06:00:06Z) - Face Anti-Spoofing with Human Material Perception [76.4844593082362]
フェース・アンチ・スプーフィング(FAS)は、プレゼンテーション攻撃から顔認識システムを保護する上で重要な役割を担っている。
我々は、顔の反偽造を物質認識問題として言い換え、それを古典的な人間の物質知覚と組み合わせる。
本稿では,本質的な素材に基づくパターンをキャプチャ可能なバイラテラル畳み込みネットワーク(BCN)を提案する。
論文 参考訳(メタデータ) (2020-07-04T18:25:53Z) - Creating Artificial Modalities to Solve RGB Liveness [79.9255035557979]
我々は,スプーフ検出のためのエンドツーエンドパイプラインと組み合わせて,ランクプーリングと光流の2種類の人工変換を導入する。
提案手法は, 最大のクロスセクニティ対面アンチスプーフィングデータセットCASIA-SURF CeFA (RGB) の最先端化を実現する。
論文 参考訳(メタデータ) (2020-06-29T13:19:22Z) - Multi-Person Pose Estimation with Enhanced Feature Aggregation and
Selection [33.15192824888279]
複数人物のポーズ推定のためのEFASNet(Enhanced Feature Aggregation and Selection Network)を提案する。
我々の手法は、混み合った、散らばった、ぎこちないシーンをうまく扱える。
総合的な実験により、提案手法は最先端の手法よりも優れていることが示された。
論文 参考訳(メタデータ) (2020-03-20T08:33:25Z) - Deep Spatial Gradient and Temporal Depth Learning for Face Anti-spoofing [61.82466976737915]
深層学習は、顔の反偽造の最も効果的な方法の1つとして証明されている。
2つの洞察に基づいて,複数フレームからの提示攻撃を検出する新しい手法を提案する。
提案手法は,5つのベンチマークデータセットの最先端結果を実現する。
論文 参考訳(メタデータ) (2020-03-18T06:11:20Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。