論文の概要: Hypersphere Secure Sketch Revisited: Probabilistic Linear Regression Attack on IronMask in Multiple Usage
- arxiv url: http://arxiv.org/abs/2409.12884v1
- Date: Thu, 19 Sep 2024 16:28:30 GMT
- ステータス: 処理完了
- システム内更新日: 2024-11-07 12:59:09.695265
- Title: Hypersphere Secure Sketch Revisited: Probabilistic Linear Regression Attack on IronMask in Multiple Usage
- Title(参考訳): ハイパースフィア安全なスケッチ再考:複数使用時のアイアンマスクに対する確率的線形回帰攻撃
- Authors: Pengxu Zhu, Lei Wang,
- Abstract要約: 我々は、更新可能性というセキュリティ概念に基づいて、IronMaskに対する攻撃を考案する。
この攻撃は、複数の保護されたテンプレートを取得する際に元のテンプレートを回復する最初のアルゴリズムである。
- 参考スコア(独自算出の注目度): 2.290956583394892
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Protection of biometric templates is a critical and urgent area of focus. IronMask demonstrates outstanding recognition performance while protecting facial templates against existing known attacks. In high-level, IronMask can be conceptualized as a fuzzy commitment scheme building on the hypersphere directly. We devise an attack on IronMask targeting on the security notion of renewability. Our attack, termed as Probabilistic Linear Regression Attack, utilizes the linearity of underlying used error correcting code. This attack is the first algorithm to successfully recover the original template when getting multiple protected templates in acceptable time and requirement of storage. We implement experiments on IronMask applied to protect ArcFace that well verify the validity of our attacks. Furthermore, we carry out experiments in noisy environments and confirm that our attacks are still applicable. Finally, we put forward two strategies to mitigate this type of attacks.
- Abstract(参考訳): バイオメトリックテンプレートの保護は、重要かつ緊急な焦点領域である。
IronMaskは、既存の既知の攻撃に対して顔テンプレートを保護しながら、優れた認識性能を示す。
高レベルでは、IronMaskは超球面上に構築されるファジィコミットメントスキームとして概念化することができる。
我々は、更新可能性というセキュリティ概念に基づいて、IronMaskに対する攻撃を考案する。
我々の攻撃は確率線形回帰攻撃と呼ばれ、根底にある誤り訂正符号の線形性を利用する。
この攻撃は、複数の保護されたテンプレートを許容時間とストレージ要件で取得する際に、元のテンプレートを正常に回復する最初のアルゴリズムである。
我々は、攻撃の有効性を十分に検証するArcFaceを保護するために適用されたIronMaskの実験を実施している。
さらに、ノイズの多い環境で実験を行い、攻撃がまだ適用可能であることを確認した。
最後に、この種の攻撃を緩和するための2つの戦略を提案しました。
関連論文リスト
- Carry Your Fault: A Fault Propagation Attack on Side-Channel Protected LWE-based KEM [12.164927192334748]
本稿では,LWE方式の鍵カプセル化機構のサイドチャネル保護マスク実装に対する新たな障害攻撃を提案する。
我々は、A2Bにおける加算器搬送チェーンのデータ依存を利用して、機密情報を抽出する。
キーバーに対する重要な復旧攻撃を示すが、サーバーのような他のスキームにも漏れがある。
論文 参考訳(メタデータ) (2024-01-25T11:18:43Z) - Can We Trust the Unlabeled Target Data? Towards Backdoor Attack and Defense on Model Adaptation [120.42853706967188]
本研究は, よく設計された毒物標的データによるモデル適応に対するバックドア攻撃の可能性を探る。
既存の適応アルゴリズムと組み合わせたMixAdaptというプラグイン・アンド・プレイ方式を提案する。
論文 参考訳(メタデータ) (2024-01-11T16:42:10Z) - Backdoor Attack with Sparse and Invisible Trigger [57.41876708712008]
ディープニューラルネットワーク(DNN)は、バックドア攻撃に対して脆弱である。
バックドアアタックは、訓練段階の脅威を脅かしている。
軽度で目に見えないバックドアアタック(SIBA)を提案する。
論文 参考訳(メタデータ) (2023-05-11T10:05:57Z) - Ensemble-based Blackbox Attacks on Dense Prediction [16.267479602370543]
慎重に設計されたアンサンブルは、多くの犠牲者モデルに対して効果的な攻撃を発生させることができることを示す。
特に,個々のモデルに対する重み付けの正規化が,攻撃の成功に重要な役割を担っていることを示す。
提案手法は同時に複数のブラックボックス検出とセグメンテーションモデルを騙すことができる単一摂動を生成することができる。
論文 参考訳(メタデータ) (2023-03-25T00:08:03Z) - Guidance Through Surrogate: Towards a Generic Diagnostic Attack [101.36906370355435]
我々は、攻撃最適化中に局所最小限を避けるための誘導機構を開発し、G-PGAと呼ばれる新たな攻撃に繋がる。
修正された攻撃では、ランダムに再起動したり、多数の攻撃を繰り返したり、最適なステップサイズを検索したりする必要がありません。
効果的な攻撃以上に、G-PGAは敵防御における勾配マスキングによる解離性堅牢性を明らかにするための診断ツールとして用いられる。
論文 参考訳(メタデータ) (2022-12-30T18:45:23Z) - Parallel Rectangle Flip Attack: A Query-based Black-box Attack against
Object Detection [89.08832589750003]
本稿では,攻撃領域近傍の準最適検出を回避するために,ランダム探索による並列矩形フリップ攻撃(PRFA)を提案する。
提案手法は, アンカーベースやアンカーフリーなど, 様々な人気物体検出装置を効果的かつ効率的に攻撃し, 転送可能な対向例を生成する。
論文 参考訳(メタデータ) (2022-01-22T06:00:17Z) - Hidden Backdoor Attack against Semantic Segmentation Models [60.0327238844584]
Emphbackdoor攻撃は、深層ニューラルネットワーク(DNN)に隠れたバックドアを埋め込み、トレーニングデータに毒を盛ることを目的としている。
我々は,対象ラベルを画像レベルではなくオブジェクトレベルから扱う,新たな攻撃パラダイムであるemphfine-fine-grained attackを提案する。
実験により、提案手法はわずかなトレーニングデータだけを毒殺することでセマンティックセグメンテーションモデルを攻撃することに成功した。
論文 参考訳(メタデータ) (2021-03-06T05:50:29Z) - Subpopulation Data Poisoning Attacks [18.830579299974072]
機械学習に対する攻撃は、機械学習アルゴリズムが使用するデータの逆修正を誘導し、デプロイ時に出力を選択的に変更する。
本研究では,エフェサブポピュレーションアタック(emphsubpopulation attack)と呼ばれる新たなデータ中毒攻撃を導入する。
サブポピュレーション攻撃のためのモジュラーフレームワークを設計し、異なるビルディングブロックでインスタンス化し、その攻撃がさまざまなデータセットや機械学習モデルに有効であることを示す。
論文 参考訳(メタデータ) (2020-06-24T20:20:52Z) - RayS: A Ray Searching Method for Hard-label Adversarial Attack [99.72117609513589]
我々は、レイサーチ攻撃(RayS)を提案し、これはハードラベル攻撃の有効性と効率を大幅に改善する。
モデルの正当性チェックとしても使用できる。
論文 参考訳(メタデータ) (2020-06-23T07:01:50Z) - UnMask: Adversarial Detection and Defense Through Robust Feature
Alignment [12.245288683492255]
ディープラーニングモデルは、自動運転車から医療診断まで、幅広い影響の大きいセキュリティクリティカルなシステムに統合されている。
近年の研究では、これらのディープラーニングアーキテクチャの多くは敵の攻撃に弱いことが示されている。
我々は,ロバストな特徴アライメントに基づく敵検出・防御フレームワークUnMaskを開発した。
論文 参考訳(メタデータ) (2020-02-21T23:20:23Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。