論文の概要: A secure and private ensemble matcher using multi-vault obfuscated templates
- arxiv url: http://arxiv.org/abs/2404.05205v2
- Date: Mon, 12 Aug 2024 14:42:48 GMT
- ステータス: 処理完了
- システム内更新日: 2024-08-13 23:27:39.163737
- Title: A secure and private ensemble matcher using multi-vault obfuscated templates
- Title(参考訳): マルチヴォールト難読テンプレートを用いたセキュアでプライベートなアンサンブルマッチング
- Authors: Babak Poorebrahim Gilkalaye, Shubhabrata Mukherjee, Reza Derakhshani,
- Abstract要約: 生成AIは、データ生成において前例のないリアリズム、多様性、効率を提供することによって、現代の機械学習に革命をもたらした。
バイオメトリックテンプレートのセキュリティとセキュアマッチングは、現代のバイオメトリックシステムにおいて最も求められている特徴である。
本稿では,バイオメトリックテンプレートのセキュリティを高めるために,ジェネレーティブAIを用いた新しい難読化手法を提案する。
- 参考スコア(独自算出の注目度): 1.3518297878940662
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Generative AI has revolutionized modern machine learning by providing unprecedented realism, diversity, and efficiency in data generation. This technology holds immense potential for biometrics, including for securing sensitive and personally identifiable information. Given the irrevocability of biometric samples and mounting privacy concerns, biometric template security and secure matching are among the most sought-after features of modern biometric systems. This paper proposes a novel obfuscation method using Generative AI to enhance biometric template security. Our approach utilizes synthetic facial images generated by a Generative Adversarial Network (GAN) as "random chaff points" within a secure vault system. Our method creates n sub-templates from the original template, each obfuscated with m GAN chaff points. During verification, s closest vectors to the biometric query are retrieved from each vault and combined to generate hash values, which are then compared with the stored hash value. Thus, our method safeguards user identities during the training and deployment phases by employing the GAN-generated synthetic images. Our protocol was tested using the AT&T, GT, and LFW face datasets, achieving ROC areas under the curve of 0.99, 0.99, and 0.90, respectively. Our results demonstrate that the proposed method can maintain high accuracy and reasonable computational complexity comparable to those unprotected template methods while significantly enhancing security and privacy, underscoring the potential of Generative AI in developing proactive defensive strategies for biometric systems.
- Abstract(参考訳): 生成AIは、データ生成において前例のないリアリズム、多様性、効率を提供することによって、現代の機械学習に革命をもたらした。
この技術はバイオメトリックスにとって大きな可能性を秘めている。
バイオメトリック・サンプルの無効性とプライバシーの懸念が伴うことを考えると、バイオメトリック・テンプレート・セキュリティとセキュア・マッチングは現代のバイオメトリック・システムにおいて最も求められている特徴である。
本稿では,バイオメトリックテンプレートのセキュリティを高めるために,ジェネレーティブAIを用いた新しい難読化手法を提案する。
提案手法では,GAN(Generative Adversarial Network)が生成した合成顔画像を,セキュアなVaultシステム内で「ランダムなシャフポイント」として利用する。
提案手法は,元のテンプレートからn個のサブテンプレートを生成し,それぞれがm GANチャフポイントで難読化されている。
検証中、バイオメトリッククエリに最も近いベクターは、各ヴォールトから検索され、組み合わせてハッシュ値を生成し、格納されたハッシュ値と比較する。
そこで,本手法は,GAN生成合成画像を用いて,トレーニングおよび展開段階におけるユーザアイデンティティを保護している。
提案プロトコルは,AT&T,GT,LFWの顔データを用いてテストし,それぞれ0.99,0.99,0.90の曲線でROC領域を達成した。
提案手法は,保護されていないテンプレート手法に匹敵する高精度かつ合理的な計算複雑性を維持しつつ,セキュリティとプライバシを大幅に向上させ,バイオメトリックシステムに対する積極的な防御戦略を開発する上でのジェネレーティブAIの可能性を示すものである。
関連論文リスト
- Lazy Layers to Make Fine-Tuned Diffusion Models More Traceable [70.77600345240867]
新たな任意の任意配置(AIAO)戦略は、微調整による除去に耐性を持たせる。
拡散モデルの入力/出力空間のバックドアを設計する既存の手法とは異なり,本手法では,サンプルサブパスの特徴空間にバックドアを埋め込む方法を提案する。
MS-COCO,AFHQ,LSUN,CUB-200,DreamBoothの各データセットに関する実証研究により,AIAOの堅牢性が確認された。
論文 参考訳(メタデータ) (2024-05-01T12:03:39Z) - Enhancing Privacy in Face Analytics Using Fully Homomorphic Encryption [8.742970921484371]
本稿では,FHE(Fully Homomorphic Encryption)と,PolyProtectと呼ばれるテンプレート保護方式を組み合わせた新しい手法を提案する。
提案手法は,非可逆性と無リンク性を保証し,ソフトバイオメトリック埋め込みの漏洩を効果的に防止する。
論文 参考訳(メタデータ) (2024-04-24T23:56:03Z) - Towards General Visual-Linguistic Face Forgery Detection [95.73987327101143]
ディープフェイクは現実的な顔操作であり、セキュリティ、プライバシー、信頼に深刻な脅威をもたらす可能性がある。
既存の方法は、このタスクを、デジタルラベルまたはマスク信号を使用して検出モデルをトレーニングするバイナリ分類として扱う。
本稿では, 微粒な文レベルのプロンプトをアノテーションとして用いた, VLFFD (Visual-Linguistic Face Forgery Detection) という新しいパラダイムを提案する。
論文 参考訳(メタデータ) (2023-07-31T10:22:33Z) - Securing Deep Generative Models with Universal Adversarial Signature [69.51685424016055]
深い生成モデルは、その潜在的な誤用のために社会に脅威をもたらす。
本稿では,任意の事前学習型生成モデルに普遍的逆数シグネチャを注入することを提案する。
提案手法は, FFHQ と ImageNet のデータセット上で, 様々な最先端生成モデルを用いて検証する。
論文 参考訳(メタデータ) (2023-05-25T17:59:01Z) - Theoretically Principled Federated Learning for Balancing Privacy and
Utility [61.03993520243198]
モデルパラメータを歪ませることでプライバシを保護する保護機構の一般学習フレームワークを提案する。
フェデレートされた学習における各コミュニケーションラウンドにおいて、各クライアント上の各モデルパラメータに対して、パーソナライズされたユーティリティプライバシトレードオフを実現することができる。
論文 参考訳(メタデータ) (2023-05-24T13:44:02Z) - Perfectly Secure Steganography Using Minimum Entropy Coupling [60.154855689780796]
カチン1998のステガノグラフィー情報理論モデルでは, ステガノグラフィーの術式は完全に安全であることが示されている。
また, 完全セキュアな手順の中で, 最小エントロピー結合によって誘導される場合に限, 情報スループットが最大になることを示す。
論文 参考訳(メタデータ) (2022-10-24T17:40:07Z) - MLP-Hash: Protecting Face Templates via Hashing of Randomized
Multi-Layer Perceptron [4.956977275061966]
顔認識システムはプライバシに敏感な機能を持ち、システムのデータベースに格納される。
本稿では,ユーザ固有のランダムに重み付けされたパーセプトロンを介して抽出した特徴を渡すことで保護されるテンプレートハッシュという,キャンセル可能なテンプレート保護手法を提案する。
SoTA顔認識システムを用いた実験により,本手法はBioHashingやIoM Hashingと競合する性能を示した。
論文 参考訳(メタデータ) (2022-04-23T11:18:22Z) - Security and Privacy Enhanced Gait Authentication with Random
Representation Learning and Digital Lockers [3.3549957463189095]
慣性センサーによってキャプチャされた歩行データは、ユーザ認証において有望な結果を示している。
既存のほとんどのアプローチでは、登録された歩行パターンをパターンと一致させるために安全に保存しているため、重要なセキュリティとプライバシの問題が発生している。
本稿では,歩行データからユーザ認証のためのランダムキーを生成するゲイト暗号システムを提案する。
論文 参考訳(メタデータ) (2021-08-05T06:34:42Z) - Feature Fusion Methods for Indexing and Retrieval of Biometric Data:
Application to Face Recognition with Privacy Protection [15.834050000008878]
提案手法は生体認証トランザクションに関連する計算負荷を90%削減する。
この方法は、保護された生体データの無リンク性、不可逆性、および更新性を保証する。
論文 参考訳(メタデータ) (2021-07-27T08:53:29Z) - Deep Hashing for Secure Multimodal Biometrics [1.7188280334580195]
本稿では,各ユーザの顔と虹彩バイオメトリックスからセキュアなマルチモーダルテンプレートを生成する特徴レベル融合のためのフレームワークを提案する。
キャンセル可能なバイオメトリックと安全なスケッチ技術を組み合わせることで、ハイブリッドなセキュアアーキテクチャを採用しています。
提案手法は,生体データのプライバシ向上とともに,テンプレートのキャンセル性とアンリンク性も提供する。
論文 参考訳(メタデータ) (2020-12-29T14:15:05Z) - BERT-ATTACK: Adversarial Attack Against BERT Using BERT [77.82947768158132]
離散データ(テキストなど)に対するアドリアック攻撃は、連続データ(画像など)よりも難しい。
対戦型サンプルを生成するための高品質で効果的な方法である textbfBERT-Attack を提案する。
本手法は、成功率と摂動率の両方において、最先端の攻撃戦略より優れている。
論文 参考訳(メタデータ) (2020-04-21T13:30:02Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。