論文の概要: In-context Learning of Vision Language Models for Detection of Physical and Digital Attacks against Face Recognition Systems
- arxiv url: http://arxiv.org/abs/2507.15285v1
- Date: Mon, 21 Jul 2025 06:35:46 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-07-22 20:51:32.284897
- Title: In-context Learning of Vision Language Models for Detection of Physical and Digital Attacks against Face Recognition Systems
- Title(参考訳): 音声認識システムに対する物理・デジタル攻撃検出のための視覚言語モデルのテキスト内学習
- Authors: Lazaro Janier Gonzalez-Soler, Maciej Salwowski, Christoph Busch,
- Abstract要約: 顔認識システムに対する攻撃は、物理的アプローチとデジタルアプローチに分けることができる。
ディープラーニングモデルは、このような攻撃に対する主要な防御手段だ。
本研究では,物理プレゼンテーション攻撃とデジタルモーフィング攻撃を検出するためのコンテキスト内学習フレームワークを提案する。
- 参考スコア(独自算出の注目度): 4.3415446824106745
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Recent advances in biometric systems have significantly improved the detection and prevention of fraudulent activities. However, as detection methods improve, attack techniques become increasingly sophisticated. Attacks on face recognition systems can be broadly divided into physical and digital approaches. Traditionally, deep learning models have been the primary defence against such attacks. While these models perform exceptionally well in scenarios for which they have been trained, they often struggle to adapt to different types of attacks or varying environmental conditions. These subsystems require substantial amounts of training data to achieve reliable performance, yet biometric data collection faces significant challenges, including privacy concerns and the logistical difficulties of capturing diverse attack scenarios under controlled conditions. This work investigates the application of Vision Language Models (VLM) and proposes an in-context learning framework for detecting physical presentation attacks and digital morphing attacks in biometric systems. Focusing on open-source models, the first systematic framework for the quantitative evaluation of VLMs in security-critical scenarios through in-context learning techniques is established. The experimental evaluation conducted on freely available databases demonstrates that the proposed subsystem achieves competitive performance for physical and digital attack detection, outperforming some of the traditional CNNs without resource-intensive training. The experimental results validate the proposed framework as a promising tool for improving generalisation in attack detection.
- Abstract(参考訳): 近年の生体認証システムの進歩により,不正行為の検出・防止が大幅に改善されている。
しかし、検出方法が改良されるにつれて、攻撃技術はますます洗練されていく。
顔認識システムに対する攻撃は、物理的アプローチとデジタルアプローチに大きく分けることができる。
伝統的に、深層学習モデルはそのような攻撃に対する主要な防御であった。
これらのモデルは訓練されたシナリオにおいて非常によく機能するが、異なるタイプの攻撃や環境条件に適応するのに苦労することが多い。
これらのサブシステムは、信頼性の高いパフォーマンスを達成するためにかなりの量のトレーニングデータを必要とするが、バイオメトリックデータ収集は、プライバシー上の懸念や、制御された条件下で多様な攻撃シナリオをキャプチャすることの難しさなど、重大な課題に直面している。
本研究では,視覚言語モデル(VLM)の適用について検討し,バイオメトリックシステムにおける物理プレゼンテーション攻撃やデジタルモーフィング攻撃を検出するためのコンテキスト内学習フレームワークを提案する。
オープンソースモデルに焦点をあて、コンテキスト内学習技術によるセキュリティクリティカルシナリオにおけるVLMの定量的評価のための最初の体系的フレームワークを確立した。
データベース上で実験を行った結果,提案するサブシステムは物理的およびデジタル攻撃検出の競争性能を向上し,資源集約的なトレーニングを行なわずに従来のCNNよりも優れていたことが確認された。
実験結果は,攻撃検出の一般化を向上するための有望なツールとして,提案手法の有効性を検証した。
関連論文リスト
- A Survey on Model Extraction Attacks and Defenses for Large Language Models [55.60375624503877]
モデル抽出攻撃は、デプロイされた言語モデルに重大なセキュリティ脅威をもたらす。
この調査は、抽出攻撃と防御攻撃の包括的分類、機能抽出への攻撃の分類、データ抽出の訓練、およびプロンプトターゲット攻撃を提供する。
モデル保護,データプライバシ保護,迅速なターゲット戦略に編成された防御機構について検討し,その効果を異なる展開シナリオで評価する。
論文 参考訳(メタデータ) (2025-06-26T22:02:01Z) - Learning in Multiple Spaces: Few-Shot Network Attack Detection with Metric-Fused Prototypical Networks [47.18575262588692]
本稿では,数発の攻撃検出に適した新しいマルチスペースプロトタイプ学習フレームワークを提案する。
Polyakの平均的なプロトタイプ生成を活用することで、このフレームワークは学習プロセスを安定化し、稀でゼロデイの攻撃に効果的に適応する。
ベンチマークデータセットによる実験結果から、MSPLは、目立たない、新しい攻撃タイプを検出する従来のアプローチよりも優れていることが示された。
論文 参考訳(メタデータ) (2024-12-28T00:09:46Z) - Sustainable Self-evolution Adversarial Training [51.25767996364584]
対戦型防衛モデルのための持続的自己進化支援訓練(SSEAT)フレームワークを提案する。
本研究は,様々な種類の対角的事例から学習を実現するために,連続的な対向防衛パイプラインを導入する。
また,より多様で重要な再学習データを選択するために,逆データ再生モジュールを提案する。
論文 参考訳(メタデータ) (2024-12-03T08:41:11Z) - Time-Aware Face Anti-Spoofing with Rotation Invariant Local Binary Patterns and Deep Learning [50.79277723970418]
模倣攻撃は 不正な識別と その後の攻撃者の認証につながる
顔認識と同様に、模倣攻撃も機械学習で検出できる。
本稿では,未使用の機能と時間認識の深層学習戦略を組み合わせることで,高い分類精度を実現する新しい手法を提案する。
論文 参考訳(メタデータ) (2024-08-27T07:26:10Z) - A Survey and Evaluation of Adversarial Attacks for Object Detection [11.48212060875543]
深層学習モデルは、信頼できるが誤った予測をすることを欺くような敵対的な例に対して脆弱である。
この脆弱性は、自動運転車、セキュリティ監視、安全クリティカルな検査システムなどの高リスクなアプリケーションに重大なリスクをもたらす。
本稿では,対象検出アーキテクチャに特有の敵攻撃を分類するための新しい分類枠組みを提案する。
論文 参考訳(メタデータ) (2024-08-04T05:22:08Z) - Impacts of Data Preprocessing and Hyperparameter Optimization on the Performance of Machine Learning Models Applied to Intrusion Detection Systems [0.8388591755871736]
侵入検知システム(IDS)は継続的に改善されている。
その多くは、脅威を特定するために機械学習(ML)技術を採用している。
本稿では,この研究ギャップを埋める研究について述べる。
論文 参考訳(メタデータ) (2024-07-15T14:30:25Z) - CANEDERLI: On The Impact of Adversarial Training and Transferability on CAN Intrusion Detection Systems [17.351539765989433]
車両と外部ネットワークの統合が拡大し、コントロールエリアネットワーク(CAN)の内部バスをターゲットにした攻撃が急増した。
対策として,様々な侵入検知システム(IDS)が文献で提案されている。
これらのシステムのほとんどは、機械学習(ML)やディープラーニング(DL)モデルのような、データ駆動のアプローチに依存しています。
本稿では,CANベースのIDSをセキュアにするための新しいフレームワークであるCANEDERLIを提案する。
論文 参考訳(メタデータ) (2024-04-06T14:54:11Z) - usfAD Based Effective Unknown Attack Detection Focused IDS Framework [3.560574387648533]
Internet of Things(IoT)とIndustrial Internet of Things(IIoT)は、サイバー脅威の増加につながっている。
10年以上にわたり、研究者は侵入検知システム(IDS)を開発するための教師付き機械学習技術を模索してきた。
既知のデータセット上でトレーニングされ、テストされたIDSは、ゼロデイまたは未知の攻撃を検出するのに失敗する。
我々は,攻撃の訓練サンプルを必要としない,半教師付き学習に基づくIDSのための2つの戦略を提案する。
論文 参考訳(メタデータ) (2024-03-17T11:49:57Z) - Robustness and Generalization Performance of Deep Learning Models on
Cyber-Physical Systems: A Comparative Study [71.84852429039881]
調査は、センサーの故障やノイズなど、様々な摂動を扱うモデルの能力に焦点を当てている。
我々は,これらのモデルの一般化と伝達学習能力を,アウト・オブ・ディストリビューション(OOD)サンプルに公開することによって検証する。
論文 参考訳(メタデータ) (2023-06-13T12:43:59Z) - Adversarial Attacks and Defenses in Machine Learning-Powered Networks: A
Contemporary Survey [114.17568992164303]
機械学習とディープニューラルネットワークにおけるアドリアックと防御が注目されている。
本調査は、敵攻撃・防衛技術分野における最近の進歩を包括的に概観する。
検索ベース、意思決定ベース、ドロップベース、物理世界攻撃など、新たな攻撃方法も検討されている。
論文 参考訳(メタデータ) (2023-03-11T04:19:31Z) - On the Robustness of Random Forest Against Untargeted Data Poisoning: An
Ensemble-Based Approach [42.81632484264218]
機械学習モデルでは、トレーニングセット(中毒)の分画の摂動が、モデルの精度を著しく損なう可能性がある。
本研究の目的は、ランダムな森林を標的のない無作為な毒殺攻撃から保護する、新しいハッシュベースのアンサンブルアプローチを実現することである。
論文 参考訳(メタデータ) (2022-09-28T11:41:38Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。