論文の概要: Semi-Supervised learning for Face Anti-Spoofing using Apex frame
- arxiv url: http://arxiv.org/abs/2309.04958v1
- Date: Sun, 10 Sep 2023 08:14:41 GMT
- ステータス: 処理完了
- システム内更新日: 2023-09-12 15:30:01.947401
- Title: Semi-Supervised learning for Face Anti-Spoofing using Apex frame
- Title(参考訳): Apex フレームを用いた対面防止のための半教師付き学習
- Authors: Usman Muhammad, Mourad Oussalah and Jorma Laaksonen
- Abstract要約: 頂点フレームは、ビデオの中央フレームを中心にしたガウス分布を用いて重み付けされたフレームの和を計算することによって、ビデオから導出される。
これにより、ラベル付きおよびラベルなしの頂点フレームの両方を考慮した半教師付き学習の利点を活用し、ライブクラスとスプーフクラスを効果的に識別する。
4つの顔アンチスプーフィングデータベースを用いた実験結果から,顔アンチスプーフィング技術の進歩における頂点フレームの有効性が示された。
- 参考スコア(独自算出の注目度): 5.31652803716288
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Conventional feature extraction techniques in the face anti-spoofing domain
either analyze the entire video sequence or focus on a specific segment to
improve model performance. However, identifying the optimal frames that provide
the most valuable input for the face anti-spoofing remains a challenging task.
In this paper, we address this challenge by employing Gaussian weighting to
create apex frames for videos. Specifically, an apex frame is derived from a
video by computing a weighted sum of its frames, where the weights are
determined using a Gaussian distribution centered around the video's central
frame. Furthermore, we explore various temporal lengths to produce multiple
unlabeled apex frames using a Gaussian function, without the need for
convolution. By doing so, we leverage the benefits of semi-supervised learning,
which considers both labeled and unlabeled apex frames to effectively
discriminate between live and spoof classes. Our key contribution emphasizes
the apex frame's capacity to represent the most significant moments in the
video, while unlabeled apex frames facilitate efficient semi-supervised
learning, as they enable the model to learn from videos of varying temporal
lengths. Experimental results using four face anti-spoofing databases: CASIA,
REPLAY-ATTACK, OULU-NPU, and MSU-MFSD demonstrate the apex frame's efficacy in
advancing face anti-spoofing techniques.
- Abstract(参考訳): 対面防止領域における従来の特徴抽出技術は、ビデオシーケンス全体を解析するか、特定のセグメントに集中してモデル性能を向上させる。
しかし、顔に最も価値のある入力を提供する最適なフレームを特定することは難しい課題である。
本稿では,gaussian weightingを用いてビデオ用apexフレームを作成することで,この課題を解決する。
特に、頂点フレームは、ビデオの中央フレームを中心にしたガウス分布を用いて重み付けされたフレームの和を計算することによって、ビデオから導出される。
さらに,様々な時間長を探索し,畳み込みを必要とせず,ガウス関数を用いて複数の頂点フレームを生成する。
これにより、ラベル付きおよびラベルなしの頂点フレームの両方を考慮した半教師付き学習の利点を活用し、ライブクラスとスプーフクラスを効果的に識別する。
我々の重要な貢献は、ビデオの最も重要な瞬間を表現するための頂点フレームの能力を強調し、ラベルなしの頂点フレームは、時間長の異なるビデオから学習できるように、効率的な半教師付き学習を促進する。
CASIA, REPLAY-ATTACK, OULU-NPU, MSU-MFSDの4つの顔アンチスプーフィングデータベースを用いた実験結果から, 顔アンチスプーフィング技術の進歩における頂点フレームの有効性が示された。
関連論文リスト
- Disrupting Style Mimicry Attacks on Video Imagery [27.170071784028472]
本稿では,映像におけるスタイルの模倣を妨害する手法について検討する。
まず、ビデオから抽出した個々のフレームをトレーニングすることで、模倣攻撃が成功することを示す。
フレームレベルの類似性に基づいて,映像を短いシーンに分割する,ツールに依存しない新しいフレームワークを開発した。
論文 参考訳(メタデータ) (2024-05-11T01:40:19Z) - Video Dynamics Prior: An Internal Learning Approach for Robust Video
Enhancements [83.5820690348833]
外部トレーニングデータコーパスを必要としない低レベルの視覚タスクのためのフレームワークを提案する。
提案手法は,コヒーレンス・時間的テストの重み付けと統計内部統計を利用して,破損したシーケンスを最適化することでニューラルモジュールを学習する。
論文 参考訳(メタデータ) (2023-12-13T01:57:11Z) - SSVOD: Semi-Supervised Video Object Detection with Sparse Annotations [12.139451002212063]
SSVODはビデオのモーションダイナミクスを利用して、スパースアノテーション付き大規模未ラベルフレームを利用する。
提案手法は,ImageNet-VID, Epic-KITCHENS, YouTube-VISの既存手法に比べて,大幅な性能向上を実現している。
論文 参考訳(メタデータ) (2023-09-04T06:41:33Z) - E-VFIA : Event-Based Video Frame Interpolation with Attention [8.93294761619288]
軽量カーネルベース手法として,注目度の高いイベントベースビデオフレーム(E-VFIA)を提案する。
E-VFIAは、イベント情報を変形可能な畳み込みによって標準的なビデオフレームと融合し、高品質な補間フレームを生成する。
提案手法は、時間分解能の高いイベントを表現し、イベントベース情報をよりよくエンコードするためにマルチヘッド自己保持機構を使用する。
論文 参考訳(メタデータ) (2022-09-19T21:40:32Z) - Context-Aware Video Reconstruction for Rolling Shutter Cameras [52.28710992548282]
本稿では,文脈対応のGSビデオ再構成アーキテクチャを提案する。
まず、2つのRSフレームの画素が共通のGSフレームに歪むように、左右の運動場を推定する。
そこで,両面閉塞マスクとともにGSフレーム合成を誘導し,高忠実度GSビデオフレームを生成するための改良手法を提案する。
論文 参考訳(メタデータ) (2022-05-25T17:05:47Z) - Efficient Video Segmentation Models with Per-frame Inference [117.97423110566963]
推論のオーバーヘッドを導入することなく、時間的一貫性を改善することに注力する。
本稿では,時間的一貫性の喪失やオンライン/オフラインの知識蒸留手法など,ビデオシーケンスから学ぶためのいくつかの手法を提案する。
論文 参考訳(メタデータ) (2022-02-24T23:51:36Z) - OCSampler: Compressing Videos to One Clip with Single-step Sampling [82.0417131211353]
本稿では,OCSampler というフレームワークを提案する。
我々の基本的な動機は、効率的なビデオ認識タスクは、フレームをシーケンシャルに拾うのではなく、シーケンス全体を一度に処理することにある。
論文 参考訳(メタデータ) (2022-01-12T09:50:38Z) - Memory-Augmented Non-Local Attention for Video Super-Resolution [61.55700315062226]
低解像度(LR)ビデオから高忠実度高解像度(HR)ビデオを生成するための新しいビデオ超解法を提案する。
従来の方法は、主に時間的隣のフレームを利用して、現在のフレームの超解像を支援する。
対照的に、フレームアライメントなしでビデオの超解像を可能にするクロスフレーム非局所アテンション機構を考案する。
論文 参考訳(メタデータ) (2021-08-25T05:12:14Z) - Uncertainty-Aware Weakly Supervised Action Detection from Untrimmed
Videos [82.02074241700728]
本稿では,ビデオフレームラベルのみを用いてトレーニングした,禁止レベルの行動認識モデルを提案する。
人1人当たりの手法は、複数のインスタンス学習フレームワーク内の大規模な画像データセットで訓練されている。
標準的な多重インスタンス学習の仮定では、各バッグには、指定されたラベルを持つ少なくとも1つのインスタンスが含まれているという仮定が無効である場合、どのようにメソッドを適用するかを示す。
論文 参考訳(メタデータ) (2020-07-21T10:45:05Z) - End-to-End Learning for Video Frame Compression with Self-Attention [25.23586503813838]
ビデオフレームを圧縮するエンド・ツー・エンドの学習システムを提案する。
我々のシステムはフレームの深い埋め込みを学習し、その差分を潜時空間でエンコードする。
実験の結果,提案システムは高い圧縮率と高客観的な視覚的品質を実現することがわかった。
論文 参考訳(メタデータ) (2020-04-20T12:11:08Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。