論文の概要: LitMAS: A Lightweight and Generalized Multi-Modal Anti-Spoofing Framework for Biometric Security
- arxiv url: http://arxiv.org/abs/2506.06759v1
- Date: Sat, 07 Jun 2025 11:04:08 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-06-10 16:33:10.465968
- Title: LitMAS: A Lightweight and Generalized Multi-Modal Anti-Spoofing Framework for Biometric Security
- Title(参考訳): LitMAS:バイオメトリックセキュリティのための軽量で汎用的なマルチモードアンチスプーフィングフレームワーク
- Authors: Nidheesh Gorthi, Kartik Thakral, Rishabh Ranjan, Richa Singh, Mayank Vatsa,
- Abstract要約: 音声,顔,虹彩,指紋に基づく生体認証システムにおいて,スプーフィング攻撃を検出するためのフレームワークであるLitMASを提案する。
LitMASの中核にはModality-Aligned concentration Lossがあり、クラス間の分離性を高めている。
6Mパラメータだけで、LitMASは最先端のメソッドを7つのデータセットで平均1.36%のEERで上回っている。
- 参考スコア(独自算出の注目度): 45.216049137040336
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Biometric authentication systems are increasingly being deployed in critical applications, but they remain susceptible to spoofing. Since most of the research efforts focus on modality-specific anti-spoofing techniques, building a unified, resource-efficient solution across multiple biometric modalities remains a challenge. To address this, we propose LitMAS, a $\textbf{Li}$gh$\textbf{t}$ weight and generalizable $\textbf{M}$ulti-modal $\textbf{A}$nti-$\textbf{S}$poofing framework designed to detect spoofing attacks in speech, face, iris, and fingerprint-based biometric systems. At the core of LitMAS is a Modality-Aligned Concentration Loss, which enhances inter-class separability while preserving cross-modal consistency and enabling robust spoof detection across diverse biometric traits. With just 6M parameters, LitMAS surpasses state-of-the-art methods by $1.36\%$ in average EER across seven datasets, demonstrating high efficiency, strong generalizability, and suitability for edge deployment. Code and trained models are available at https://github.com/IAB-IITJ/LitMAS.
- Abstract(参考訳): 生体認証システムは、ますます重要なアプリケーションにデプロイされているが、いまだに偽造の影響を受けやすい。
研究はほとんどがモダリティ固有のアンチ・スプーフィング技術に重点を置いているため、複数のバイオメトリック・モダリティにまたがる統一的で資源効率の高いソリューションの構築は依然として課題である。
これを解決するために、LitMAS, a $\textbf{Li}$gh$\textbf{t}$ weight and generalizable $\textbf{M}$ulti-modal $\textbf{A}$nti-$\textbf{S}$poofing frameworkを提案する。
LitMASの中核にはModality-Aligned concentration Lossがあり、これはクラス間の分離性を高めながら、相互整合性を維持し、多様な生体認証特性にわたって堅牢なスプーフ検出を可能にする。
たった6Mパラメータだけで、LitMASは7つのデータセットにわたる平均EERの平均$1.36\%の最先端メソッドを上回り、高い効率性、強力な一般化可能性、エッジデプロイメントの適性を示す。
コードとトレーニングされたモデルはhttps://github.com/IAB-IITJ/LitMAS.comで入手できる。
関連論文リスト
- $\textit{Agents Under Siege}$: Breaking Pragmatic Multi-Agent LLM Systems with Optimized Prompt Attacks [32.42704787246349]
マルチエージェント大規模言語モデル(LLM)システムは,エージェント間の通信や分散推論に依存するため,新たな敵対的リスクを生み出す。
本研究では,トークンの帯域幅の制限,メッセージ配信のレイテンシ,防御機構といった制約のある実用的システムへの攻撃に革新的な焦点をあてる。
我々は、レイテンシと帯域幅制約のあるネットワークトポロジ間の迅速な分散を最適化し、分散安全機構をバイパスする、$textitpermutation-invariant adversarial attack$を設計する。
論文 参考訳(メタデータ) (2025-03-31T20:43:56Z) - AMB-FHE: Adaptive Multi-biometric Fusion with Fully Homomorphic Encryption [3.092212810857262]
完全同相暗号(AMB-FHE)を用いた適応型多生体融合を提案する。
AMB-FHEは、CAIAアイリスとMCYT指紋データセットからなるバイモーダルバイオメトリックデータベースに対してベンチマークされる。
論文 参考訳(メタデータ) (2025-03-31T11:00:08Z) - MOSAIC: Multiple Observers Spotting AI Content, a Robust Approach to Machine-Generated Text Detection [35.67613230687864]
大規模言語モデル(LLM)は大規模に訓練され、強力なテキスト生成能力を備えている。
人文テキストから人工的に生成されたものを自動判別する様々な提案がなされている。
それぞれの強みを組み合わせるための、理論上は新たなアプローチを導出します。
種々のジェネレータLSMを用いた実験により,本手法がロバスト検出性能を効果的に導くことが示唆された。
論文 参考訳(メタデータ) (2024-09-11T20:55:12Z) - Impact of Financial Literacy on Investment Decisions and Stock Market Participation using Extreme Learning Machines [0.0]
本研究の目的は、金融リテラシーが金融意思決定や株式市場の参加にどのように影響するかを検討することである。
ソーシャルメディアプラットフォームから収集したデータを用いて、リアルタイム投資家の行動や態度を分析する。
この結果は、金融リテラシーが株式市場の参加と金融決定において重要な役割を担っていることを示している。
論文 参考訳(メタデータ) (2024-07-03T20:55:15Z) - Benchmarking Quality-Dependent and Cost-Sensitive Score-Level Multimodal
Biometric Fusion Algorithms [58.156733807470395]
本稿では,BioSecure DS2 (Access Control) 評価キャンペーンの枠組み内で実施したベンチマーク研究について報告する。
キャンペーンは、約500人の中規模施設における物理的アクセス制御の適用を目標とした。
我々の知る限りでは、これは品質ベースのマルチモーダル融合アルゴリズムをベンチマークする最初の試みである。
論文 参考訳(メタデータ) (2021-11-17T13:39:48Z) - Asymmetric Modality Translation For Face Presentation Attack Detection [55.09300842243827]
顔提示攻撃検出(PAD)は、悪意のあるユーザによって顔認識システムが偽造されるのを防ぐための重要な手段である。
両モードシナリオにおける非対称なモダリティ変換に基づく新しいフレームワークを提案する。
本手法は,異なる評価プロトコル下での最先端性能を実現する。
論文 参考訳(メタデータ) (2021-10-18T08:59:09Z) - Deep Hashing for Secure Multimodal Biometrics [1.7188280334580195]
本稿では,各ユーザの顔と虹彩バイオメトリックスからセキュアなマルチモーダルテンプレートを生成する特徴レベル融合のためのフレームワークを提案する。
キャンセル可能なバイオメトリックと安全なスケッチ技術を組み合わせることで、ハイブリッドなセキュアアーキテクチャを採用しています。
提案手法は,生体データのプライバシ向上とともに,テンプレートのキャンセル性とアンリンク性も提供する。
論文 参考訳(メタデータ) (2020-12-29T14:15:05Z) - MixNet for Generalized Face Presentation Attack Detection [63.35297510471997]
我々は、プレゼンテーションアタックを検出するための、TextitMixNetと呼ばれるディープラーニングベースのネットワークを提案している。
提案アルゴリズムは最先端の畳み込みニューラルネットワークアーキテクチャを利用して,各攻撃カテゴリの特徴マッピングを学習する。
論文 参考訳(メタデータ) (2020-10-25T23:01:13Z) - Face Anti-Spoofing with Human Material Perception [76.4844593082362]
フェース・アンチ・スプーフィング(FAS)は、プレゼンテーション攻撃から顔認識システムを保護する上で重要な役割を担っている。
我々は、顔の反偽造を物質認識問題として言い換え、それを古典的な人間の物質知覚と組み合わせる。
本稿では,本質的な素材に基づくパターンをキャプチャ可能なバイラテラル畳み込みネットワーク(BCN)を提案する。
論文 参考訳(メタデータ) (2020-07-04T18:25:53Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。