論文の概要: Extensive Threat Analysis of Vein Attack Databases and Attack Detection
by Fusion of Comparison Scores
- arxiv url: http://arxiv.org/abs/2203.08972v1
- Date: Wed, 16 Mar 2022 22:29:12 GMT
- ステータス: 処理完了
- システム内更新日: 2022-03-18 14:41:58.001865
- Title: Extensive Threat Analysis of Vein Attack Databases and Attack Detection
by Fusion of Comparison Scores
- Title(参考訳): 比較スコアの融合による静脈攻撃データベースの広範囲な脅威解析と攻撃検出
- Authors: Johannes Schuiki and Michael Linortner and Georg Wimmer and Andreas
Uhl
- Abstract要約: 使用済みの攻撃サンプルが、現実的な静脈認識システムを実際に欺く能力を持っているかは、必ずしも示されていない。
本研究は3つの指静脈発作データベースと1つの私的手静脈データベースを含む,系統的な脅威評価を提供する。
- 参考スコア(独自算出の注目度): 4.301276597844756
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: The last decade has brought forward many great contributions regarding
presentation attack detection for the domain of finger and hand vein
biometrics. Among those contributions, one is able to find a variety of
different attack databases that are either private or made publicly available
to the research community. However, it is not always shown whether the used
attack samples hold the capability to actually deceive a realistic vein
recognition system. Inspired by previous works, this study provides a
systematic threat evaluation including three publicly available finger vein
attack databases and one private dorsal hand vein database. To do so, 14
distinct vein recognition schemes are confronted with attack samples and the
percentage of wrongly accepted attack samples is then reported as the Impostor
Attack Presentation Match Rate. As a second step, comparison scores from
different recognition schemes are combined using score level fusion with the
goal of performing presentation attack detection.
- Abstract(参考訳): この10年で、指および手静脈バイオメトリクスの領域に対する提示攻撃検出に関する多くの大きな貢献がもたらされた。
これらの貢献の中で、プライベートであるか、研究コミュニティが公開しているさまざまな攻撃データベースを見つけることができる。
しかし、使用する攻撃サンプルが実際に現実的な静脈認識システムを欺く能力を持っているかどうかは必ずしも示されていない。
本研究は,3つの指静脈発作データベースと1つの私的背静脈発作データベースを含む,系統的な脅威評価を行う。
そのため、14の異なる静脈認識スキームが攻撃サンプルと対向し、不正に受け入れられた攻撃サンプルの割合をインポスタ攻撃提示マッチングレートとして報告する。
第2のステップとして、スコアレベル融合とプレゼンテーション攻撃検出の目標とを用いて、異なる認識方式による比較スコアを組み合わせる。
関連論文リスト
- AdvQDet: Detecting Query-Based Adversarial Attacks with Adversarial Contrastive Prompt Tuning [93.77763753231338]
CLIP画像エンコーダを微調整し、2つの中間対向クエリに対して同様の埋め込みを抽出するために、ACPT(Adversarial Contrastive Prompt Tuning)を提案する。
我々は,ACPTが7つの最先端クエリベースの攻撃を検出できることを示す。
また,ACPTは3種類のアダプティブアタックに対して堅牢であることを示す。
論文 参考訳(メタデータ) (2024-08-04T09:53:50Z) - Detecting Adversarial Data via Perturbation Forgery [28.637963515748456]
逆検出は、自然データと逆データの間の分布とノイズパターンの相違に基づいて、データフローから逆データを特定し、フィルタリングすることを目的としている。
不均衡および異方性雑音パターンを回避した生成モデルに基づく新しい攻撃
本研究では,ノイズ分布の摂動,スパースマスク生成,擬似対向データ生成を含む摂動フォージェリを提案し,未知の勾配に基づく,生成モデルに基づく,物理的対向攻撃を検出することができる対向検出器を訓練する。
論文 参考訳(メタデータ) (2024-05-25T13:34:16Z) - Unraveling Adversarial Examples against Speaker Identification --
Techniques for Attack Detection and Victim Model Classification [24.501269108193412]
敵対的な例は話者識別システムを脅かすことが証明されている。
本稿では,敵対的事例の存在を検出する手法を提案する。
また、敵攻撃を行う被害者モデルを特定する方法についても紹介する。
論文 参考訳(メタデータ) (2024-02-29T17:06:52Z) - Contactless Fingerprint Biometric Anti-Spoofing: An Unsupervised Deep
Learning Approach [0.0]
本稿では、教師なしオートエンコーダと畳み込みブロックアテンションモジュールを組み合わせた革新的なアンチスプーフィング手法を提案する。
このスキームは平均で0.96%のBPCERを達成し、様々な種類のスプーフサンプルを含むプレゼンテーション攻撃では1.6%のAPCERを達成している。
論文 参考訳(メタデータ) (2023-11-07T17:19:59Z) - Understanding the Vulnerability of Skeleton-based Human Activity Recognition via Black-box Attack [53.032801921915436]
HAR(Human Activity Recognition)は、自動運転車など、幅広い用途に採用されている。
近年,敵対的攻撃に対する脆弱性から,骨格型HAR法の堅牢性に疑問が呈されている。
攻撃者がモデルの入出力しかアクセスできない場合でも、そのような脅威が存在することを示す。
BASARと呼ばれる骨格をベースとしたHARにおいて,最初のブラックボックス攻撃手法を提案する。
論文 参考訳(メタデータ) (2022-11-21T09:51:28Z) - Attacking Face Recognition with T-shirts: Database, Vulnerability
Assessment and Detection [0.0]
我々は,100のユニークな提示攻撃器を用いた1,608のTシャツ攻撃の新しいTシャツ顔提示攻撃データベースを提案する。
このような攻撃は、顔認識システムのセキュリティを損なう可能性があり、いくつかの最先端の攻撃検出メカニズムが、新しい攻撃に対して堅牢に一般化できないことを示す。
論文 参考訳(メタデータ) (2022-11-14T14:11:23Z) - Hide and Seek: on the Stealthiness of Attacks against Deep Learning
Systems [15.733167372239432]
本研究は,深層学習に対する攻撃に使用される敵対的サンプルの盗聴性に関する最初の大規模研究である。
我々は6つの人気のあるベンチマークデータセットに対して、20の代表的な敵ML攻撃を実装した。
以上の結果から,既存の攻撃のほとんどは,人間の目には盗みのない非無視的摂動をもたらすことが明らかとなった。
論文 参考訳(メタデータ) (2022-05-31T16:43:22Z) - Adversarial Robustness of Deep Reinforcement Learning based Dynamic
Recommender Systems [50.758281304737444]
本稿では,強化学習に基づく対話型レコメンデーションシステムにおける敵例の探索と攻撃検出を提案する。
まず、入力に摂動を加え、カジュアルな要因に介入することで、異なる種類の逆例を作成する。
そこで,本研究では,人工データに基づく深層学習に基づく分類器による潜在的攻撃を検出することにより,推薦システムを強化した。
論文 参考訳(メタデータ) (2021-12-02T04:12:24Z) - Towards A Conceptually Simple Defensive Approach for Few-shot
classifiers Against Adversarial Support Samples [107.38834819682315]
本研究は,数発の分類器を敵攻撃から守るための概念的簡便なアプローチについて検討する。
本稿では,自己相似性とフィルタリングの概念を用いた簡易な攻撃非依存検出法を提案する。
ミニイメージネット(MI)とCUBデータセットの攻撃検出性能は良好である。
論文 参考訳(メタデータ) (2021-10-24T05:46:03Z) - Improving the Adversarial Robustness for Speaker Verification by Self-Supervised Learning [95.60856995067083]
この研究は、特定の攻撃アルゴリズムを知らずにASVの敵防衛を行う最初の試みの一つである。
本研究の目的は,1) 対向摂動浄化と2) 対向摂動検出の2つの視点から対向防御を行うことである。
実験の結果, 検出モジュールは, 約80%の精度で対向検体を検出することにより, ASVを効果的に遮蔽することがわかった。
論文 参考訳(メタデータ) (2021-06-01T07:10:54Z) - Learning to Separate Clusters of Adversarial Representations for Robust
Adversarial Detection [50.03939695025513]
本稿では,最近導入された非破壊的特徴を動機とした新しい確率的対向検出器を提案する。
本稿では,非ロバスト特徴を逆例の共通性と考え,その性質に対応する表現空間におけるクラスターの探索が可能であることを推定する。
このアイデアは、別のクラスタ内の逆表現の確率推定分布を導出し、その分布を確率に基づく逆検出器として活用する。
論文 参考訳(メタデータ) (2020-12-07T07:21:18Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。