論文の概要: On the Leakage of Fuzzy Matchers
- arxiv url: http://arxiv.org/abs/2307.13717v3
- Date: Fri, 6 Oct 2023 09:57:01 GMT
- ステータス: 処理完了
- システム内更新日: 2023-10-13 05:22:08.718884
- Title: On the Leakage of Fuzzy Matchers
- Title(参考訳): ファジィマッチング器の漏洩について
- Authors: Axel Durbet, Kevin Thiry-Atighehchi, Dorine Chagnon, Paul-Marie
Grollemund
- Abstract要約: 本稿では,距離評価における情報漏洩の詳細な解析を行う。
漏洩はマルウェアの感染や、弱いプライバシー保護マッチの使用によって起こりうる。
データプライバシに関するセキュリティへの影響だけでなく、情報漏洩シナリオの完全なカタログも提供します。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: In a biometric recognition system, the matcher compares an old and a fresh
template to decide if it is a match or not. Beyond the binary output (`yes' or
`no'), more information is computed. This paper provides an in-depth analysis
of information leakage during distance evaluation, with an emphasis on
threshold-based obfuscated distance (\textit{i.e.}, Fuzzy Matcher). Leakage can
occur due to a malware infection or the use of a weakly privacy-preserving
matcher, exemplified by side channel attacks or partially obfuscated designs.
We provide an exhaustive catalog of information leakage scenarios as well as
their impacts on the security concerning data privacy. Each of the scenarios
leads to generic attacks whose impacts are expressed in terms of computational
costs, hence allowing the establishment of upper bounds on the security level.
- Abstract(参考訳): 生体認証システムにおいて、マッチング者は、古いテンプレートと新しいテンプレートを比較して、マッチかどうかを判定する。
バイナリ出力(`yes' または `no')の他に、より多くの情報が計算される。
本稿では,距離評価中の情報漏洩の詳細な分析を行い,しきい値に基づく難読化距離(ファジィマッチング,ファジィマッチング)に着目した。
漏洩はマルウェアの感染や、サイドチャネル攻撃や部分的に難読化された設計によって例示される、弱いプライバシー保護マッチの使用によって起こりうる。
我々は、情報漏洩シナリオの完全なカタログと、データプライバシに関するセキュリティへの影響を提供する。
それぞれのシナリオは、計算コストの観点から影響が表される一般的な攻撃につながるため、セキュリティレベルに対する上限の確立が可能になる。
関連論文リスト
- Private Counterfactual Retrieval [34.11302393278422]
透明性と説明可能性は、ブラックボックス機械学習モデルを採用する際に考慮すべき極めて重要な2つの側面である。
反実的な説明を提供することは、この要件を満たす一つの方法である。
プライベート情報検索(PIR)技術にインスパイアされた複数のスキームを提案する。
論文 参考訳(メタデータ) (2024-10-17T17:45:07Z) - Is merging worth it? Securely evaluating the information gain for causal dataset acquisition [9.373086204998348]
我々は、マージの価値を定量化するための、最初の暗号的にセキュアな情報理論アプローチを導入する。
我々は、期待情報ゲイン(EIG)を評価し、生データを公開せずに安全に計算できることを保証するために、マルチパーティ計算を利用する。
論文 参考訳(メタデータ) (2024-09-11T12:17:01Z) - Model Pairing Using Embedding Translation for Backdoor Attack Detection on Open-Set Classification Tasks [63.269788236474234]
バックドア検出のためのオープンセット分類タスクにモデルペアを用いることを提案する。
このスコアは、異なるアーキテクチャのモデルがあるにもかかわらず、バックドアの存在を示す指標であることを示している。
この技術は、オープンセット分類タスク用に設計されたモデル上のバックドアの検出を可能にするが、文献ではほとんど研究されていない。
論文 参考訳(メタデータ) (2024-02-28T21:29:16Z) - How Much Does Each Datapoint Leak Your Privacy? Quantifying the
Per-datum Membership Leakage [13.097161185372153]
本研究では,攻撃者がアルゴリズムの入力データセットに固定目標ダタムが含まれているかどうかを推測し,プライバシーを侵害することを目的とした,ダタム単位のメンバシップ推論攻撃(MIA)について検討する。
本研究では,実験平均値のダラム当たりの漏洩量を定量化し,目標ダラムとデータ生成分布とのマハラノビス距離に依存することを示す。
本実験は, ダム当たりの漏洩に対する漏洩スコア, サブサンプリング比, ノイズスケールの影響を理論的に検証した。
論文 参考訳(メタデータ) (2024-02-15T16:30:55Z) - Protect Your Score: Contact Tracing With Differential Privacy Guarantees [68.53998103087508]
プライバシーに関する懸念は、現在展開を控えている、と私たちは主張する。
本稿では,この攻撃に対して異なるプライバシー保証を有する接触追跡アルゴリズムを提案する。
特に現実的な検査シナリオでは,ウイルス感染率の2倍から10倍の低下を実現している。
論文 参考訳(メタデータ) (2023-12-18T11:16:33Z) - Untargeted Near-collision Attacks on Biometrics: Real-world Bounds and
Theoretical Limits [0.0]
オンラインとオフラインの両方、そして識別モードと検証モードの両方で実行できる未ターゲティングな攻撃に焦点を当てます。
我々は、これらのシステムのセキュリティに対処するために、False Match Rate(FMR)とFalse Positive Identification Rate(FPIR)を用いる。
この距離空間とシステムパラメータの研究は、標的外攻撃の複雑さと近接衝突の確率を与える。
論文 参考訳(メタデータ) (2023-04-04T07:17:31Z) - Pre-trained Encoders in Self-Supervised Learning Improve Secure and
Privacy-preserving Supervised Learning [63.45532264721498]
自己教師付き学習は、ラベルのないデータを使ってエンコーダを事前訓練するための新しいテクニックである。
我々は、事前訓練されたエンコーダがセキュア・プライバシ保護型学習アルゴリズムの限界に対処できるかどうかを理解するための、最初の体系的、原則的な測定研究を行う。
論文 参考訳(メタデータ) (2022-12-06T21:35:35Z) - Privacy-Preserved Neural Graph Similarity Learning [99.78599103903777]
本稿では,グラフ類似性学習のためのプライバシ保存型ニューラルグラフマッチングネットワークモデルPPGMを提案する。
再構成攻撃を防ぐため、提案モデルではデバイス間でノードレベルの表現を通信しない。
グラフプロパティに対する攻撃を軽減するため、両方のベクトルの情報を含む難読化機能は通信される。
論文 参考訳(メタデータ) (2022-10-21T04:38:25Z) - Is Vertical Logistic Regression Privacy-Preserving? A Comprehensive
Privacy Analysis and Beyond [57.10914865054868]
垂直ロジスティック回帰(VLR)をミニバッチ降下勾配で訓練した。
我々は、オープンソースのフェデレーション学習フレームワークのクラスにおいて、VLRの包括的で厳密なプライバシー分析を提供する。
論文 参考訳(メタデータ) (2022-07-19T05:47:30Z) - Mitigating Leakage in Federated Learning with Trusted Hardware [0.0]
連合学習では、複数のパーティが協力して、それぞれのデータセット上でグローバルモデルをトレーニングします。
不正に行われた場合、一部の情報はまだ関係者間でリークされる可能性がある。
信頼性の高い実行環境に依存した2つのセキュアバージョンを提案する。
論文 参考訳(メタデータ) (2020-11-10T07:22:51Z) - Backdoor Attack against Speaker Verification [86.43395230456339]
学習データを汚染することにより,話者検証モデルに隠れたバックドアを注入できることを示す。
また,既存のバックドア攻撃が話者認証攻撃に直接適用できないことも実証した。
論文 参考訳(メタデータ) (2020-10-22T11:10:08Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。