論文の概要: VLAD-VSA: Cross-Domain Face Presentation Attack Detection with
Vocabulary Separation and Adaptation
- arxiv url: http://arxiv.org/abs/2202.10301v1
- Date: Mon, 21 Feb 2022 15:27:41 GMT
- ステータス: 処理完了
- システム内更新日: 2022-02-22 15:53:18.900210
- Title: VLAD-VSA: Cross-Domain Face Presentation Attack Detection with
Vocabulary Separation and Adaptation
- Title(参考訳): vlad-vsa:語彙分離と適応によるクロスドメイン顔提示攻撃検出
- Authors: Jiong Wang, Zhou Zhao, Weike Jin, Xinyu Duan, Zhen Lei, Baoxing Huai,
Yiling Wu, Xiaofei He
- Abstract要約: 顔提示攻撃(PAD)の場合、スプーフィングキューのほとんどは微妙で局所的な画像パターンである。
VLADアグリゲーション法は,特徴空間を局所的に分割する視覚語彙を用いて局所特徴を定量化する。
提案する語彙分離法は,語彙をドメイン共有語とドメイン固有語に分割する。
- 参考スコア(独自算出の注目度): 87.9994254822078
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: For face presentation attack detection (PAD), most of the spoofing cues are
subtle, local image patterns (e.g., local image distortion, 3D mask edge and
cut photo edges). The representations of existing PAD works with simple global
pooling method, however, lose the local feature discriminability. In this
paper, the VLAD aggregation method is adopted to quantize local features with
visual vocabulary locally partitioning the feature space, and hence preserve
the local discriminability. We further propose the vocabulary separation and
adaptation method to modify VLAD for cross-domain PADtask. The proposed
vocabulary separation method divides vocabulary into domain-shared and
domain-specific visual words to cope with the diversity of live and attack
faces under the cross-domain scenario. The proposed vocabulary adaptation
method imitates the maximization step of the k-means algorithm in the
end-to-end training, which guarantees the visual words be close to the center
of assigned local features and thus brings robust similarity measurement. We
give illustrations and extensive experiments to demonstrate the effectiveness
of VLAD with the proposed vocabulary separation and adaptation method on
standard cross-domain PAD benchmarks. The codes are available at
https://github.com/Liubinggunzu/VLAD-VSA.
- Abstract(参考訳): 顔提示攻撃検出(PAD)では、スプーフィングキューのほとんどは微妙で局所的な画像パターン(例えば、局所的な画像歪み、3Dマスクエッジ、カットフォトエッジ)である。
既存のPADの表現は、単純なグローバルプール法で機能するが、局所的な特徴識別性を失う。
本稿では,特徴空間を局所的に分割する視覚語彙を用いた局所特徴量の定量化にvlad法を適用し,局所識別性を維持した。
さらに,ドメイン間PADtaskに対してVLADを修飾する語彙分離適応法を提案する。
提案手法は,語彙をドメイン共有とドメイン固有の視覚語に分割し,ドメイン横断シナリオ下での生活・攻撃面の多様性に対処する。
提案した語彙適応法は,k-meansアルゴリズムの最大化ステップを模倣し,視覚的単語が割り当てられた局所特徴の中心に近づくことを保証し,ロバストな類似度測定を実現する。
本稿では,標準クロスドメインパッドベンチマークにおける語彙分離・適応手法を用いたvladの有効性を実証するために,イラストと広範囲な実験を行った。
コードはhttps://github.com/liubinggunzu/vlad-vsaで入手できる。
関連論文リスト
- Content-Adaptive Non-Local Convolution for Remote Sensing Pansharpening [15.73548871484733]
リモートセンシング画像パネルペンのためのコンテント適応型非局所畳み込み(CANConv)を提案する。
CANConvは適応的畳み込みを採用し、空間的適応性を確保し、非局所的な自己相似性を取り入れている。
また、主にマルチスケールの自己相似性を利用するCANNetというネットワークアーキテクチャを提案する。
論文 参考訳(メタデータ) (2024-04-11T08:11:36Z) - CLIM: Contrastive Language-Image Mosaic for Region Representation [58.05870131126816]
Contrastive Language-Image Mosaic (CLIM) は、領域とテキストの表現を整合させる新しいアプローチである。
CLIMは、異なるオープン語彙オブジェクト検出方法を一貫して改善する。
視覚言語モデルの領域表現を効果的に強化することができる。
論文 参考訳(メタデータ) (2023-12-18T17:39:47Z) - Diffusion-based Image Translation with Label Guidance for Domain
Adaptive Semantic Segmentation [35.44771460784343]
ターゲットモデル学習のためのソースドメインからターゲットドメインへの変換は、ドメイン適応セマンティックセグメンテーション(DASS)において最も一般的な戦略の1つである。
既存の方法は、元の画像と翻訳された画像の間の意味的に一貫性のある局所的な詳細を保存するのに依然として苦労している。
本稿では、画像翻訳中にソースドメインラベルを明示的なガイダンスとして用いることにより、この問題に対処する革新的なアプローチを提案する。
論文 参考訳(メタデータ) (2023-08-23T18:01:01Z) - Unsupervised Domain Adaptation for Semantic Segmentation using One-shot
Image-to-Image Translation via Latent Representation Mixing [9.118706387430883]
超高解像度画像のセマンティックセグメンテーションのための新しい教師なし領域適応法を提案する。
潜在コンテンツ表現をドメイン間で混合するエンコーダ・デコーダの原理に基づいて,画像から画像への変換パラダイムを提案する。
都市間比較実験により,提案手法は最先端領域適応法より優れていることが示された。
論文 参考訳(メタデータ) (2022-12-07T18:16:17Z) - HSVA: Hierarchical Semantic-Visual Adaptation for Zero-Shot Learning [74.76431541169342]
ゼロショット学習(ZSL)は、目に見えないクラス認識の問題に取り組み、目に見えないクラスから目に見えないクラスに意味的な知識を移す。
本稿では,意味領域と視覚領域を協調させる新しい階層型意味視覚適応(HSVA)フレームワークを提案する。
4つのベンチマークデータセットの実験では、HSVAは従来のZSLと一般的なZSLの両方で優れた性能を示す。
論文 参考訳(メタデータ) (2021-09-30T14:27:50Z) - More Separable and Easier to Segment: A Cluster Alignment Method for
Cross-Domain Semantic Segmentation [41.81843755299211]
上記の問題を緩和するために,ドメイン仮定の近接性に基づく新しいUDAセマンティックセマンティックセマンティクス手法を提案する。
具体的には、同じ意味を持つクラスタピクセルにプロトタイプクラスタリング戦略を適用し、ターゲットドメインピクセル間の関連付けをより良く維持します。
GTA5とSynthiaで行った実験は,本法の有効性を実証した。
論文 参考訳(メタデータ) (2021-05-07T10:24:18Z) - Cross-domain Speech Recognition with Unsupervised Character-level
Distribution Matching [60.8427677151492]
2つの領域における各文字間の微粒化適応を行うための文字レベルの分布マッチング手法であるCMatchを提案する。
Libri-Adaptデータセットを用いた実験の結果,提案手法はクロスデバイスとクロス環境の両方で14.39%,16.50%の単語誤り率(WER)を低減できることがわかった。
論文 参考訳(メタデータ) (2021-04-15T14:36:54Z) - Pixel-Level Cycle Association: A New Perspective for Domain Adaptive
Semantic Segmentation [169.82760468633236]
本稿では,ソースとターゲットの画素ペア間の画素レベルサイクルの関連性を構築することを提案する。
我々の手法は1段階のエンドツーエンドで訓練でき、追加のパラメータは導入しない。
論文 参考訳(メタデータ) (2020-10-31T00:11:36Z) - Affinity Space Adaptation for Semantic Segmentation Across Domains [57.31113934195595]
本稿では,意味的セグメンテーションにおける教師なしドメイン適応(UDA)の問題に対処する。
ソースドメインとターゲットドメインが不変なセマンティック構造を持つという事実に触発され、ドメイン間におけるそのような不変性を活用することを提案する。
親和性空間適応戦略として,親和性空間の洗浄と親和性空間アライメントという2つの方法を開発した。
論文 参考訳(メタデータ) (2020-09-26T10:28:11Z) - Contextual-Relation Consistent Domain Adaptation for Semantic
Segmentation [44.19436340246248]
本稿では,革新的局所文脈相関整合ドメイン適応手法を提案する。
グローバルレベルのアライメントにおいて、地域レベルのコンピテンシーを達成することを目的としている。
実験では, 最先端手法と比較して, セグメンテーション性能が優れていることを示した。
論文 参考訳(メタデータ) (2020-07-05T19:00:46Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。