論文の概要: Model Inversion Attacks Meet Cryptographic Fuzzy Extractors
- arxiv url: http://arxiv.org/abs/2510.25687v1
- Date: Wed, 29 Oct 2025 16:50:54 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-30 15:50:45.808282
- Title: Model Inversion Attacks Meet Cryptographic Fuzzy Extractors
- Title(参考訳): 暗号ファジィ・エクストラクタによるモデルインバージョン攻撃
- Authors: Mallika Prabhakar, Louise Xu, Prateek Saxena,
- Abstract要約: モデル反転攻撃は、機械学習(ML)モデルを使用するプライバシーに敏感なアプリケーションに対して、オープンな課題となる。
モデル反転に対する強い防御の望ましい性質を定式化し、ファジィ抽出器という暗号概念に接続する。
標準ユークリッド距離コンパレータをサポートするファジィ抽出器L2FE-Hashを提案する。
- 参考スコア(独自算出の注目度): 6.874395842599885
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Model inversion attacks pose an open challenge to privacy-sensitive applications that use machine learning (ML) models. For example, face authentication systems use modern ML models to compute embedding vectors from face images of the enrolled users and store them. If leaked, inversion attacks can accurately reconstruct user faces from the leaked vectors. There is no systematic characterization of properties needed in an ideal defense against model inversion, even for the canonical example application of a face authentication system susceptible to data breaches, despite a decade of best-effort solutions. In this paper, we formalize the desired properties of a provably strong defense against model inversion and connect it, for the first time, to the cryptographic concept of fuzzy extractors. We further show that existing fuzzy extractors are insecure for use in ML-based face authentication. We do so through a new model inversion attack called PIPE, which achieves a success rate of over 89% in most cases against prior schemes. We then propose L2FE-Hash, the first candidate fuzzy extractor which supports standard Euclidean distance comparators as needed in many ML-based applications, including face authentication. We formally characterize its computational security guarantees, even in the extreme threat model of full breach of stored secrets, and empirically show its usable accuracy in face authentication for practical face distributions. It offers attack-agnostic security without requiring any re-training of the ML model it protects. Empirically, it nullifies both prior state-of-the-art inversion attacks as well as our new PIPE attack.
- Abstract(参考訳): モデル反転攻撃は、機械学習(ML)モデルを使用するプライバシーに敏感なアプリケーションに対して、オープンな課題となる。
例えば、顔認証システムは、最新のMLモデルを使用して、登録されたユーザの顔画像から埋め込みベクトルを計算し、それらを格納する。
リークされた場合、インバージョンアタックはリークしたベクターからユーザーの顔を正確に再構築することができる。
モデル逆転に対する理想的な防御に必要とされる特性の体系的な特徴は存在せず、例えば10年ものベスト・エフォート・ソリューションにもかかわらず、データ漏洩の影響を受けやすい顔認証システムの正統的な適用例は存在しない。
本稿では,モデル反転に対する実証可能な強い防御の望ましい特性を定式化し,ファジィ抽出器の暗号的概念に初めて接続する。
さらに,既存のファジィ抽出器はMLベースの顔認証では安全でないことを示す。
我々は、PIPEと呼ばれる新しいモデル反転攻撃によって、ほとんどの場合、以前のスキームに対して89%以上の成功率を達成する。
次に,顔認証を含む多くのMLアプリケーションに必要な標準ユークリッド距離コンパレータをサポートするファジィ抽出器L2FE-Hashを提案する。
我々は,保存された秘密の完全漏洩の極端な脅威モデルにおいても,その計算セキュリティ保証を公式に特徴付け,実用的な顔分布のための顔認証において,その使用可能な精度を実証的に示す。
保護するMLモデルの再トレーニングを必要とせずに、アタック非依存のセキュリティを提供する。
実験的に、これは我々の新しいPIPE攻撃と同様に、以前の最先端の反転攻撃を無効化する。
関連論文リスト
- The Surprising Effectiveness of Membership Inference with Simple N-Gram Coverage [71.8564105095189]
対象モデルからのテキスト出力のみに依存する会員推論攻撃であるN-Gram Coverage Attackを導入する。
我々はまず、N-Gram Coverage Attackが他のブラックボックスメソッドより優れている、様々な既存のベンチマークを実証する。
GPT-4oのような最近のモデルでは、メンバーシップ推論に対するロバスト性が向上していることがわかった。
論文 参考訳(メタデータ) (2025-08-13T08:35:16Z) - No Query, No Access [50.18709429731724]
被害者のテキストのみを使用して動作する textbfVictim Data-based Adrial Attack (VDBA) を導入する。
被害者モデルへのアクセスを防止するため、公開されている事前トレーニングモデルとクラスタリングメソッドを備えたシャドウデータセットを作成します。
EmotionとSST5データセットの実験によると、VDBAは最先端の手法より優れており、ASRの改善は52.08%である。
論文 参考訳(メタデータ) (2025-05-12T06:19:59Z) - DiffMI: Breaking Face Recognition Privacy via Diffusion-Driven Training-Free Model Inversion [16.02881487974147]
顔認識は、不変の生体データに依存するため、深刻なプライバシーリスクを引き起こす。
モデル反転攻撃は、アイデンティティ情報がまだ回復可能であることを明らかにし、重大な脆弱性を露呈する。
DiffMIは拡散駆動型トレーニングフリーモデルインバージョンアタックである。
論文 参考訳(メタデータ) (2025-04-25T01:53:27Z) - Principles of Designing Robust Remote Face Anti-Spoofing Systems [60.05766968805833]
本稿では,デジタル攻撃に対する最先端の対面防止手法の脆弱性に光を当てる。
反偽造システムに遭遇する一般的な脅威を包括的に分類する。
論文 参考訳(メタデータ) (2024-06-06T02:05:35Z) - Model X-ray:Detecting Backdoored Models via Decision Boundary [62.675297418960355]
バックドア攻撃はディープニューラルネットワーク(DNN)に重大な脆弱性をもたらす
図形化された2次元(2次元)決定境界の解析に基づく新しいバックドア検出手法であるモデルX線を提案する。
提案手法は,クリーンサンプルが支配する意思決定領域とラベル分布の集中度に着目した2つの戦略を含む。
論文 参考訳(メタデータ) (2024-02-27T12:42:07Z) - Poisoned Forgery Face: Towards Backdoor Attacks on Face Forgery
Detection [62.595450266262645]
本稿では,バックドア攻撃による顔偽造検出の新たな脅威について紹介する。
バックドアをモデルに埋め込むことで、攻撃者は検知器を騙して偽造された顔の誤予測を発生させることができる。
我々は,顔偽造検知器に対するクリーンラベルバックドア攻撃を可能にするemphPoisoned Forgery Faceフレームワークを提案する。
論文 参考訳(メタデータ) (2024-02-18T06:31:05Z) - Pareto-Secure Machine Learning (PSML): Fingerprinting and Securing
Inference Serving Systems [0.0]
既存のブラックボックス攻撃では、推論要求を行うために単一のモデルを繰り返し選択できると仮定している。
そこで本研究では,攻撃者が希望するモデルを連続的にトリガーできるように,クエリ効率のよいフィンガープリントアルゴリズムを提案する。
我々は,特定の性能指標にノイズを加えることで,指紋認証を阻止するノイズベースの防御機構を用いて,提案攻撃を阻止する。
論文 参考訳(メタデータ) (2023-07-03T18:53:47Z) - Detecting Adversarial Faces Using Only Real Face Self-Perturbations [36.26178169550577]
アドリアックは、入力サンプルに特定のノイズを加えることで、ターゲットシステムの機能を妨害することを目的としている。
既存の防御技術は、特定の対向顔(adv-faces)の検出において高い精度を達成する
全く異なるノイズパターンを持つ新しい攻撃方法、特にGANベースの攻撃は、それらを回避し、より高い攻撃成功率に達する。
論文 参考訳(メタデータ) (2023-04-22T09:55:48Z) - Privacy Attacks Against Biometric Models with Fewer Samples:
Incorporating the Output of Multiple Models [2.1874132949602654]
認証システムは、敵がターゲット機械学習モデルの逆を近似するモデル逆攻撃に対して脆弱である。
これは、生体認証モデルを反転させることで、攻撃者が生体認証システムに現実的な生体認証入力を生成できるためである。
本稿では,モデル逆攻撃に必要なトレーニングデータを大幅に削減する手法を提案する。
論文 参考訳(メタデータ) (2022-09-22T14:00:43Z) - On the Difficulty of Defending Self-Supervised Learning against Model
Extraction [23.497838165711983]
SSL(Self Supervised Learning)は、複雑な入力を明示的なラベルに頼ることなく表現に変換するモデルを訓練するMLパラダイムである。
本稿ではSSLに対するモデル盗難攻撃について検討する。
いくつかの新たな攻撃を構築し、被害者の盗難表現を直接訓練するアプローチがクエリ効率が高く、下流モデルに高い精度で適用可能であることを発見した。
論文 参考訳(メタデータ) (2022-05-16T17:20:44Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。