論文の概要: Explaining Face Presentation Attack Detection Using Natural Language
- arxiv url: http://arxiv.org/abs/2111.04862v1
- Date: Mon, 8 Nov 2021 22:55:55 GMT
- ステータス: 処理完了
- システム内更新日: 2021-11-10 14:39:10.561531
- Title: Explaining Face Presentation Attack Detection Using Natural Language
- Title(参考訳): 自然言語による顔提示攻撃検出の解説
- Authors: Hengameh Mirzaalian, Mohamed E. Hussein, Leonidas Spinoulas, Jonathan
May, Wael Abd-Almageed
- Abstract要約: 本稿では,自然言語による顔提示攻撃予測について説明する。
提案手法は,PADモデルの深い層の特徴表現を言語モデルに渡して,PAD予測の背後にある推論を記述したテキストを生成する。
本稿では, 単語単位のクロスエントロピー損失, 文識別的損失, 文意味的損失など, 生成した説明の質が, 異なる損失関数にどのように影響するかを検討する。
- 参考スコア(独自算出の注目度): 24.265611015740287
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: A large number of deep neural network based techniques have been developed to
address the challenging problem of face presentation attack detection (PAD).
Whereas such techniques' focus has been on improving PAD performance in terms
of classification accuracy and robustness against unseen attacks and
environmental conditions, there exists little attention on the explainability
of PAD predictions. In this paper, we tackle the problem of explaining PAD
predictions through natural language. Our approach passes feature
representations of a deep layer of the PAD model to a language model to
generate text describing the reasoning behind the PAD prediction. Due to the
limited amount of annotated data in our study, we apply a light-weight LSTM
network as our natural language generation model. We investigate how the
quality of the generated explanations is affected by different loss functions,
including the commonly used word-wise cross entropy loss, a sentence
discriminative loss, and a sentence semantic loss. We perform our experiments
using face images from a dataset consisting of 1,105 bona-fide and 924
presentation attack samples. Our quantitative and qualitative results show the
effectiveness of our model for generating proper PAD explanations through text
as well as the power of the sentence-wise losses. To the best of our knowledge,
this is the first introduction of a joint biometrics-NLP task. Our dataset can
be obtained through our GitHub page.
- Abstract(参考訳): 顔提示攻撃検出(pad)の課題に対処するために,深層ニューラルネットワークに基づく手法が数多く開発されている。
このような手法は、未確認の攻撃や環境条件に対する分類精度と堅牢性の観点から、PAD性能の向上に重点を置いているが、PAD予測の妥当性についてはほとんど注目されていない。
本稿では,自然言語によるパッド予測を説明する問題に取り組む。
提案手法は,PADモデルの深い層の特徴表現を言語モデルに渡して,PAD予測の背後にある推論を記述するテキストを生成する。
本研究では,注釈付きデータが少ないため,自然言語生成モデルとして軽量LSTMネットワークを適用した。
本稿では, 単語単位のクロスエントロピー損失, 文識別的損失, 文意味的損失など, 生成した説明の質が, 異なる損失関数にどのように影響するかを検討する。
1,105個のボナフィドと924個の提示攻撃サンプルからなるデータセットから顔画像を用いて実験を行った。
定量的・定性的な結果から,本モデルがテキストによる適切なパディング説明の生成と文の損失のパワーに与える影響を示した。
私たちの知る限りでは、これはジョイントバイオメトリックスnlpタスクの最初の導入です。
当社のデータセットは、githubページから取得可能です。
関連論文リスト
- Enhancing adversarial robustness in Natural Language Inference using explanations [41.46494686136601]
自然言語推論(NLI)の未探索課題に注目点を当てた。
我々は、広範囲な実験を通じて、モデルに依存しない防衛戦略として、自然言語説明の使用を検証した。
本研究では,広範に使用されている言語生成指標と人間の知覚との相関について検討し,それらが堅牢なNLIモデルへのプロキシとして機能するようにした。
論文 参考訳(メタデータ) (2024-09-11T17:09:49Z) - DPP-Based Adversarial Prompt Searching for Lanugage Models [56.73828162194457]
Auto-Regressive Selective Replacement Ascent (ASRA)は、決定点プロセス(DPP)と品質と類似性の両方に基づいてプロンプトを選択する離散最適化アルゴリズムである。
6種類の事前学習言語モデルに対する実験結果から,ASRAによる有害成分の抽出の有効性が示された。
論文 参考訳(メタデータ) (2024-03-01T05:28:06Z) - SA-Attack: Improving Adversarial Transferability of Vision-Language
Pre-training Models via Self-Augmentation [56.622250514119294]
ホワイトボックスの敵攻撃とは対照的に、転送攻撃は現実世界のシナリオをより反映している。
本稿では,SA-Attackと呼ばれる自己拡張型転送攻撃手法を提案する。
論文 参考訳(メタデータ) (2023-12-08T09:08:50Z) - Naturalistic Causal Probing for Morpho-Syntax [76.83735391276547]
スペインにおける実世界のデータに対する入力レベルの介入に対する自然主義的戦略を提案する。
提案手法を用いて,共同設立者から文章中の形態・症状の特徴を抽出する。
本研究では,事前学習したモデルから抽出した文脈化表現に対する性別と数字の因果効果を解析するために,本手法を適用した。
論文 参考訳(メタデータ) (2022-05-14T11:47:58Z) - Detecting Textual Adversarial Examples Based on Distributional
Characteristics of Data Representations [11.93653349589025]
逆の例は、正しく分類された入力に小さな非ランダムな摂動を加えることで構成される。
自然言語タスクにおける敵対的攻撃へのアプローチは、文字レベル、単語レベル、フレーズレベルの摂動を用いて、過去5年間にブームとなった。
我々はこのギャップを埋めるために,NLPのための2つの新しいリアクティブ手法を提案する。
適応 LID と MDRE は、IMDB データセットに対する文字レベル、単語レベル、フレーズレベルの攻撃に対して、最先端の結果を得る。
論文 参考訳(メタデータ) (2022-04-29T02:32:02Z) - GPT-D: Inducing Dementia-related Linguistic Anomalies by Deliberate
Degradation of Artificial Neural Language Models [7.8430387435520625]
一般英語テキストで事前学習したTransformer DLモデル(GPT-2)を,人工劣化版(GPT-D)と組み合わせて提案する手法を提案する。
この手法は、広く使われている「Cookie Theft」画像記述タスクから得られたテキストデータに対する最先端のパフォーマンスにアプローチする。
本研究は, 生成型ニューラル言語モデルの内部動作, 生成する言語, 認知症が人間の発話や言語特性に与える影響について, より深く理解するためのステップである。
論文 参考訳(メタデータ) (2022-03-25T00:25:42Z) - ProsoSpeech: Enhancing Prosody With Quantized Vector Pre-training in
Text-to-Speech [96.0009517132463]
音声の低周波帯域を定量化し、潜在韻律ベクトル(LPV)における韻律特性を圧縮する単語レベル韻律エンコーダを提案する。
次に、LPV予測器を導入し、与えられた単語列を予測し、高品質なTSデータセットで微調整する。
実験結果から, ProsoSpeechはベースライン法と比較してよりリッチな韻律で音声を生成することができることがわかった。
論文 参考訳(メタデータ) (2022-02-16T01:42:32Z) - Phrase-level Adversarial Example Generation for Neural Machine
Translation [75.01476479100569]
本稿では,句レベルの逆例生成(PAEG)手法を提案し,モデルの堅牢性を高める。
我々は,LDC中英語,IWSLT14ドイツ語-英語,WMT14英語-ドイツ語タスクの3つのベンチマークで検証を行った。
論文 参考訳(メタデータ) (2022-01-06T11:00:49Z) - Bridge the Gap Between CV and NLP! A Gradient-based Textual Adversarial
Attack Framework [17.17479625646699]
そこで本研究では,テキストの敵対的サンプルを作成するための統一的なフレームワークを提案する。
本稿では,T-PGD(Textual Projected Gradient Descent)という攻撃アルゴリズムを用いて,我々のフレームワークをインスタンス化する。
論文 参考訳(メタデータ) (2021-10-28T17:31:51Z) - Generative Counterfactuals for Neural Networks via Attribute-Informed
Perturbation [51.29486247405601]
AIP(Attribute-Informed Perturbation)の提案により,生データインスタンスの反事実を生成するフレームワークを設計する。
異なる属性を条件とした生成モデルを利用することで、所望のラベルとの反事実を効果的かつ効率的に得ることができる。
実世界のテキストや画像に対する実験結果から, 設計したフレームワークの有効性, サンプル品質, および効率が示された。
論文 参考訳(メタデータ) (2021-01-18T08:37:13Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。