論文の概要: Exploit the Leak: Understanding Risks in Biometric Matchers
- arxiv url: http://arxiv.org/abs/2307.13717v5
- Date: Tue, 30 Jul 2024 08:47:54 GMT
- ステータス: 処理完了
- システム内更新日: 2024-07-31 22:59:28.170131
- Title: Exploit the Leak: Understanding Risks in Biometric Matchers
- Title(参考訳): Exploit the Leak: バイオメトリックマッチングのリスクを理解する
- Authors: Axel Durbet, Kevin Thiry-Atighehchi, Dorine Chagnon, Paul-Marie Grollemund,
- Abstract要約: 生体認証または識別システムにおいて、マッチング者は、格納されたテンプレートと新しいテンプレートを比較して、マッチがあるかどうかを判断する。
プライバシー法の遵守性を高めるために、マーカはプライバシー保護距離の上に構築することができる。
本稿では,距離評価における情報漏洩の解析を行う。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: In a biometric authentication or identification system, the matcher compares a stored and a fresh template to determine whether there is a match. This assessment is based on both a similarity score and a predefined threshold. For better compliance with privacy legislation, the matcher can be built upon a privacy-preserving distance. Beyond the binary output (`yes' or `no'), most schemes may perform more precise computations, e.g., the value of the distance. Such precise information is prone to leakage even when not returned by the system. This can occur due to a malware infection or the use of a weakly privacy-preserving distance, exemplified by side channel attacks or partially obfuscated designs. This paper provides an analysis of information leakage during distance evaluation. We provide a catalog of information leakage scenarios with their impacts on data privacy. Each scenario gives rise to unique attacks with impacts quantified in terms of computational costs, thereby providing a better understanding of the security level.
- Abstract(参考訳): 生体認証または識別システムにおいて、マッチング者は、格納されたテンプレートと新しいテンプレートを比較して、マッチがあるかどうかを判断する。
この評価は、類似度スコアと予め定義された閾値の両方に基づいている。
プライバシー法の遵守性を高めるために、マーカはプライバシー保護距離の上に構築することができる。
2進出力('yes' または 'no')の他に、ほとんどのスキームはより正確な計算、例えば距離の値を実行することができる。
このような正確な情報は、システムが返さない場合でも漏れやすい。
これはマルウェアの感染や、サイドチャネル攻撃や部分的に難読化された設計によって実証された、プライバシー保護の弱い距離の使用によって起こりうる。
本稿では,距離評価における情報漏洩の解析を行う。
データプライバシに影響を及ぼす情報漏洩シナリオのカタログを提供する。
それぞれのシナリオは、計算コストの観点から定量化されたインパクトを持つユニークな攻撃を引き起こし、セキュリティレベルをよりよく理解する。
関連論文リスト
- Private Counterfactual Retrieval [34.11302393278422]
透明性と説明可能性は、ブラックボックス機械学習モデルを採用する際に考慮すべき極めて重要な2つの側面である。
反実的な説明を提供することは、この要件を満たす一つの方法である。
プライベート情報検索(PIR)技術にインスパイアされた複数のスキームを提案する。
論文 参考訳(メタデータ) (2024-10-17T17:45:07Z) - Is merging worth it? Securely evaluating the information gain for causal dataset acquisition [9.373086204998348]
我々は、マージの価値を定量化するための、最初の暗号的にセキュアな情報理論アプローチを導入する。
我々は、期待情報ゲイン(EIG)を評価し、生データを公開せずに安全に計算できることを保証するために、マルチパーティ計算を利用する。
論文 参考訳(メタデータ) (2024-09-11T12:17:01Z) - Model Pairing Using Embedding Translation for Backdoor Attack Detection on Open-Set Classification Tasks [63.269788236474234]
バックドア検出のためのオープンセット分類タスクにモデルペアを用いることを提案する。
このスコアは、異なるアーキテクチャのモデルがあるにもかかわらず、バックドアの存在を示す指標であることを示している。
この技術は、オープンセット分類タスク用に設計されたモデル上のバックドアの検出を可能にするが、文献ではほとんど研究されていない。
論文 参考訳(メタデータ) (2024-02-28T21:29:16Z) - How Much Does Each Datapoint Leak Your Privacy? Quantifying the
Per-datum Membership Leakage [13.097161185372153]
本研究では,攻撃者がアルゴリズムの入力データセットに固定目標ダタムが含まれているかどうかを推測し,プライバシーを侵害することを目的とした,ダタム単位のメンバシップ推論攻撃(MIA)について検討する。
本研究では,実験平均値のダラム当たりの漏洩量を定量化し,目標ダラムとデータ生成分布とのマハラノビス距離に依存することを示す。
本実験は, ダム当たりの漏洩に対する漏洩スコア, サブサンプリング比, ノイズスケールの影響を理論的に検証した。
論文 参考訳(メタデータ) (2024-02-15T16:30:55Z) - Protect Your Score: Contact Tracing With Differential Privacy Guarantees [68.53998103087508]
プライバシーに関する懸念は、現在展開を控えている、と私たちは主張する。
本稿では,この攻撃に対して異なるプライバシー保証を有する接触追跡アルゴリズムを提案する。
特に現実的な検査シナリオでは,ウイルス感染率の2倍から10倍の低下を実現している。
論文 参考訳(メタデータ) (2023-12-18T11:16:33Z) - Untargeted Near-collision Attacks on Biometrics: Real-world Bounds and
Theoretical Limits [0.0]
オンラインとオフラインの両方、そして識別モードと検証モードの両方で実行できる未ターゲティングな攻撃に焦点を当てます。
我々は、これらのシステムのセキュリティに対処するために、False Match Rate(FMR)とFalse Positive Identification Rate(FPIR)を用いる。
この距離空間とシステムパラメータの研究は、標的外攻撃の複雑さと近接衝突の確率を与える。
論文 参考訳(メタデータ) (2023-04-04T07:17:31Z) - Pre-trained Encoders in Self-Supervised Learning Improve Secure and
Privacy-preserving Supervised Learning [63.45532264721498]
自己教師付き学習は、ラベルのないデータを使ってエンコーダを事前訓練するための新しいテクニックである。
我々は、事前訓練されたエンコーダがセキュア・プライバシ保護型学習アルゴリズムの限界に対処できるかどうかを理解するための、最初の体系的、原則的な測定研究を行う。
論文 参考訳(メタデータ) (2022-12-06T21:35:35Z) - Privacy-Preserved Neural Graph Similarity Learning [99.78599103903777]
本稿では,グラフ類似性学習のためのプライバシ保存型ニューラルグラフマッチングネットワークモデルPPGMを提案する。
再構成攻撃を防ぐため、提案モデルではデバイス間でノードレベルの表現を通信しない。
グラフプロパティに対する攻撃を軽減するため、両方のベクトルの情報を含む難読化機能は通信される。
論文 参考訳(メタデータ) (2022-10-21T04:38:25Z) - Is Vertical Logistic Regression Privacy-Preserving? A Comprehensive
Privacy Analysis and Beyond [57.10914865054868]
垂直ロジスティック回帰(VLR)をミニバッチ降下勾配で訓練した。
我々は、オープンソースのフェデレーション学習フレームワークのクラスにおいて、VLRの包括的で厳密なプライバシー分析を提供する。
論文 参考訳(メタデータ) (2022-07-19T05:47:30Z) - Mitigating Leakage in Federated Learning with Trusted Hardware [0.0]
連合学習では、複数のパーティが協力して、それぞれのデータセット上でグローバルモデルをトレーニングします。
不正に行われた場合、一部の情報はまだ関係者間でリークされる可能性がある。
信頼性の高い実行環境に依存した2つのセキュアバージョンを提案する。
論文 参考訳(メタデータ) (2020-11-10T07:22:51Z) - Backdoor Attack against Speaker Verification [86.43395230456339]
学習データを汚染することにより,話者検証モデルに隠れたバックドアを注入できることを示す。
また,既存のバックドア攻撃が話者認証攻撃に直接適用できないことも実証した。
論文 参考訳(メタデータ) (2020-10-22T11:10:08Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。