論文の概要: A Comprehensive Analysis on the Leakage of Fuzzy Matchers
- arxiv url: http://arxiv.org/abs/2307.13717v1
- Date: Tue, 25 Jul 2023 17:29:32 GMT
- ステータス: 処理完了
- システム内更新日: 2023-07-27 14:44:53.299423
- Title: A Comprehensive Analysis on the Leakage of Fuzzy Matchers
- Title(参考訳): ファジィマッチング器の漏洩に関する包括的解析
- Authors: Axel Durbet, Paul-Marie Grollemund, Kevin Thiry-Atighehchi
- Abstract要約: この研究の主な貢献は、マッカーから追加の情報漏洩があるシナリオにおいてファジィ・マッカーのセキュリティに上限を与えることである。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The present paper presents a comprehensive analysis of potential information
leakage in distance evaluation, with a specific emphasis on threshold-based
obfuscated distance (i.e. Fuzzy Matcher). It includes detailed descriptions of
various situations related to potential information leakage and specific
attention is given to their consequences on security. Generic attacks
corresponding to each scenario are outlined, and their complexities are
assessed. The main contribution of this work lies in providing an upper bound
on the security of a fuzzy matcher in scenarios where there is additional
information leakage from the matcher, providing a straightforward understanding
of the maximum level of achievable security and its potential implications for
data privacy and security.
- Abstract(参考訳): 本稿では,しきい値に基づく難読化距離(ファジィマッチング)に着目し,距離評価における潜在的な情報漏洩の包括的解析を行う。
これには、潜在的な情報漏洩に関連する様々な状況の詳細な説明と、セキュリティへの影響に特定の注意が払われる。
各シナリオに対応するジェネリックアタックを概説し、その複雑さを評価する。
この研究の主な貢献は、ファジィ・マッチラーから追加の情報漏洩があるシナリオにおいてファジィ・マッチラーのセキュリティに関する上限を提供することであり、達成可能なセキュリティの最大レベルとそのデータのプライバシとセキュリティに対する潜在的な影響を直接理解することである。
関連論文リスト
- Private Counterfactual Retrieval [34.11302393278422]
透明性と説明可能性は、ブラックボックス機械学習モデルを採用する際に考慮すべき極めて重要な2つの側面である。
反実的な説明を提供することは、この要件を満たす一つの方法である。
プライベート情報検索(PIR)技術にインスパイアされた複数のスキームを提案する。
論文 参考訳(メタデータ) (2024-10-17T17:45:07Z) - Is merging worth it? Securely evaluating the information gain for causal dataset acquisition [9.373086204998348]
我々は、マージの価値を定量化するための、最初の暗号的にセキュアな情報理論アプローチを導入する。
我々は、期待情報ゲイン(EIG)を評価し、生データを公開せずに安全に計算できることを保証するために、マルチパーティ計算を利用する。
論文 参考訳(メタデータ) (2024-09-11T12:17:01Z) - Model Pairing Using Embedding Translation for Backdoor Attack Detection on Open-Set Classification Tasks [63.269788236474234]
バックドア検出のためのオープンセット分類タスクにモデルペアを用いることを提案する。
このスコアは、異なるアーキテクチャのモデルがあるにもかかわらず、バックドアの存在を示す指標であることを示している。
この技術は、オープンセット分類タスク用に設計されたモデル上のバックドアの検出を可能にするが、文献ではほとんど研究されていない。
論文 参考訳(メタデータ) (2024-02-28T21:29:16Z) - How Much Does Each Datapoint Leak Your Privacy? Quantifying the
Per-datum Membership Leakage [13.097161185372153]
本研究では,攻撃者がアルゴリズムの入力データセットに固定目標ダタムが含まれているかどうかを推測し,プライバシーを侵害することを目的とした,ダタム単位のメンバシップ推論攻撃(MIA)について検討する。
本研究では,実験平均値のダラム当たりの漏洩量を定量化し,目標ダラムとデータ生成分布とのマハラノビス距離に依存することを示す。
本実験は, ダム当たりの漏洩に対する漏洩スコア, サブサンプリング比, ノイズスケールの影響を理論的に検証した。
論文 参考訳(メタデータ) (2024-02-15T16:30:55Z) - Protect Your Score: Contact Tracing With Differential Privacy Guarantees [68.53998103087508]
プライバシーに関する懸念は、現在展開を控えている、と私たちは主張する。
本稿では,この攻撃に対して異なるプライバシー保証を有する接触追跡アルゴリズムを提案する。
特に現実的な検査シナリオでは,ウイルス感染率の2倍から10倍の低下を実現している。
論文 参考訳(メタデータ) (2023-12-18T11:16:33Z) - Untargeted Near-collision Attacks on Biometrics: Real-world Bounds and
Theoretical Limits [0.0]
オンラインとオフラインの両方、そして識別モードと検証モードの両方で実行できる未ターゲティングな攻撃に焦点を当てます。
我々は、これらのシステムのセキュリティに対処するために、False Match Rate(FMR)とFalse Positive Identification Rate(FPIR)を用いる。
この距離空間とシステムパラメータの研究は、標的外攻撃の複雑さと近接衝突の確率を与える。
論文 参考訳(メタデータ) (2023-04-04T07:17:31Z) - Pre-trained Encoders in Self-Supervised Learning Improve Secure and
Privacy-preserving Supervised Learning [63.45532264721498]
自己教師付き学習は、ラベルのないデータを使ってエンコーダを事前訓練するための新しいテクニックである。
我々は、事前訓練されたエンコーダがセキュア・プライバシ保護型学習アルゴリズムの限界に対処できるかどうかを理解するための、最初の体系的、原則的な測定研究を行う。
論文 参考訳(メタデータ) (2022-12-06T21:35:35Z) - Privacy-Preserved Neural Graph Similarity Learning [99.78599103903777]
本稿では,グラフ類似性学習のためのプライバシ保存型ニューラルグラフマッチングネットワークモデルPPGMを提案する。
再構成攻撃を防ぐため、提案モデルではデバイス間でノードレベルの表現を通信しない。
グラフプロパティに対する攻撃を軽減するため、両方のベクトルの情報を含む難読化機能は通信される。
論文 参考訳(メタデータ) (2022-10-21T04:38:25Z) - Is Vertical Logistic Regression Privacy-Preserving? A Comprehensive
Privacy Analysis and Beyond [57.10914865054868]
垂直ロジスティック回帰(VLR)をミニバッチ降下勾配で訓練した。
我々は、オープンソースのフェデレーション学習フレームワークのクラスにおいて、VLRの包括的で厳密なプライバシー分析を提供する。
論文 参考訳(メタデータ) (2022-07-19T05:47:30Z) - Mitigating Leakage in Federated Learning with Trusted Hardware [0.0]
連合学習では、複数のパーティが協力して、それぞれのデータセット上でグローバルモデルをトレーニングします。
不正に行われた場合、一部の情報はまだ関係者間でリークされる可能性がある。
信頼性の高い実行環境に依存した2つのセキュアバージョンを提案する。
論文 参考訳(メタデータ) (2020-11-10T07:22:51Z) - Backdoor Attack against Speaker Verification [86.43395230456339]
学習データを汚染することにより,話者検証モデルに隠れたバックドアを注入できることを示す。
また,既存のバックドア攻撃が話者認証攻撃に直接適用できないことも実証した。
論文 参考訳(メタデータ) (2020-10-22T11:10:08Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。