論文の概要: On the Adversarial Inversion of Deep Biometric Representations
- arxiv url: http://arxiv.org/abs/2304.05561v1
- Date: Wed, 12 Apr 2023 01:47:11 GMT
- ステータス: 処理完了
- システム内更新日: 2023-04-13 16:26:57.886900
- Title: On the Adversarial Inversion of Deep Biometric Representations
- Title(参考訳): 深部バイオメトリック表現の逆変換について
- Authors: Gioacchino Tangari and Shreesh Keskar and Hassan Jameel Asghar and
Dali Kaafar
- Abstract要約: 生体認証サービスプロバイダは、しばしばユーザーの生の生体認証サンプルをリバースエンジニアリングすることは不可能であると主張する。
本稿では、ディープニューラルネットワーク(DNN)埋め込みの具体例について、この主張を考察する。
組込み時のモデルフットプリントを利用して、最初に元のDNNを推定する2段階の攻撃を提案する。
- 参考スコア(独自算出の注目度): 3.804240190982696
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Biometric authentication service providers often claim that it is not
possible to reverse-engineer a user's raw biometric sample, such as a
fingerprint or a face image, from its mathematical (feature-space)
representation. In this paper, we investigate this claim on the specific
example of deep neural network (DNN) embeddings. Inversion of DNN embeddings
has been investigated for explaining deep image representations or synthesizing
normalized images. Existing studies leverage full access to all layers of the
original model, as well as all possible information on the original dataset.
For the biometric authentication use case, we need to investigate this under
adversarial settings where an attacker has access to a feature-space
representation but no direct access to the exact original dataset nor the
original learned model. Instead, we assume varying degree of attacker's
background knowledge about the distribution of the dataset as well as the
original learned model (architecture and training process). In these cases, we
show that the attacker can exploit off-the-shelf DNN models and public
datasets, to mimic the behaviour of the original learned model to varying
degrees of success, based only on the obtained representation and attacker's
prior knowledge. We propose a two-pronged attack that first infers the original
DNN by exploiting the model footprint on the embedding, and then reconstructs
the raw data by using the inferred model. We show the practicality of the
attack on popular DNNs trained for two prominent biometric modalities, face and
fingerprint recognition. The attack can effectively infer the original
recognition model (mean accuracy 83\% for faces, 86\% for fingerprints), and
can craft effective biometric reconstructions that are successfully
authenticated with 1-vs-1 authentication accuracy of up to 92\% for some
models.
- Abstract(参考訳): 生体認証サービスプロバイダは、しばしば、数学的(特徴空間)表現から指紋や顔画像などのユーザーの生の生体認証サンプルをリバースエンジニアリングすることは不可能であると主張する。
本稿では、ディープニューラルネットワーク(DNN)埋め込みの具体的な例について、この主張を考察する。
DNN埋め込みのインバージョンは、深部画像表現の説明や正規化画像の合成のために研究されている。
既存の研究では、元のモデルのすべてのレイヤへの完全なアクセスと、元のデータセットに関するすべての可能な情報を活用する。
生体認証のユースケースでは、攻撃者が機能空間表現にアクセスするが、正確なオリジナルデータセットや元の学習モデルに直接アクセスできない、敵対的な設定の下でこれを調査する必要があります。
代わりに、データセットの分散に関する攻撃者の背景知識と、オリジナルの学習モデル(アーキテクチャとトレーニングプロセス)の多様さを想定する。
これらの場合、攻撃者は、既成のDNNモデルと公開データセットを利用して、得られた表現と攻撃者の事前知識に基づいて、元の学習モデルの振る舞いを様々な成功度に模倣することができることを示す。
本稿では,まず,埋め込みのモデルフットプリントを利用して元のDNNを推定し,次に推定モデルを用いて生データを再構成する2段階攻撃を提案する。
顔と指紋の認識という2つの顕著な生体特性を訓練したDNNに対する攻撃の実用性を示す。
この攻撃は、元の認識モデル(顔の精度83\%、指紋の86\%)を効果的に推定でき、いくつかのモデルで1-vs-1認証精度で認証された効果的な生体認証再構築を成功させることができる。
関連論文リスト
- UniForensics: Face Forgery Detection via General Facial Representation [60.5421627990707]
高レベルの意味的特徴は摂動の影響を受けにくく、フォージェリー固有の人工物に限らないため、より強い一般化がある。
我々は、トランスフォーマーベースのビデオネットワークを活用する新しいディープフェイク検出フレームワークUniForensicsを導入し、顔の豊かな表現のためのメタファンクショナルな顔分類を行う。
論文 参考訳(メタデータ) (2024-07-26T20:51:54Z) - Model Pairing Using Embedding Translation for Backdoor Attack Detection on Open-Set Classification Tasks [63.269788236474234]
バックドア検出のためのオープンセット分類タスクにモデルペアを用いることを提案する。
このスコアは、異なるアーキテクチャのモデルがあるにもかかわらず、バックドアの存在を示す指標であることを示している。
この技術は、オープンセット分類タスク用に設計されたモデル上のバックドアの検出を可能にするが、文献ではほとんど研究されていない。
論文 参考訳(メタデータ) (2024-02-28T21:29:16Z) - Presentation Attack detection using Wavelet Transform and Deep Residual
Neural Net [5.425986555749844]
生体計測物質は、いくつかの方法でインポスタによって騙されることがある。
バイオメトリック画像、特に虹彩と顔は、異なる提示攻撃に対して脆弱である。
本研究では,生体情報アクセス制御システムにおけるプレゼンテーションアタックの軽減にディープラーニングアプローチを適用した。
論文 参考訳(メタデータ) (2023-11-23T20:21:49Z) - Attribute-preserving Face Dataset Anonymization via Latent Code
Optimization [64.4569739006591]
本稿では,事前学習したGANの潜時空間における画像の潜時表現を直接最適化するタスク非依存匿名化手法を提案する。
我々は一連の実験を通して、我々の手法が画像の同一性を匿名化できる一方で、顔の属性をより保存できることを実証した。
論文 参考訳(メタデータ) (2023-03-20T17:34:05Z) - DeepTaster: Adversarial Perturbation-Based Fingerprinting to Identify
Proprietary Dataset Use in Deep Neural Networks [34.11970637801044]
我々は、被害者のデータを不正に使用して容疑者モデルを構築するシナリオに対処する、新しいフィンガープリント技術であるDeepTasterを紹介した。
これを実現するために、DeepTasterは摂動を伴う逆画像を生成し、それらをフーリエ周波数領域に変換し、これらの変換された画像を使用して被疑者モデルで使用されるデータセットを識別する。
論文 参考訳(メタデータ) (2022-11-24T11:10:54Z) - Rethinking Bias Mitigation: Fairer Architectures Make for Fairer Face
Recognition [107.58227666024791]
顔認識システムは、法執行を含む安全クリティカルなアプリケーションに広くデプロイされている。
彼らは、性別や人種など、様々な社会的デデノグラフィー次元に偏見を示す。
バイアス軽減に関するこれまでの研究は、主にトレーニングデータの事前処理に重点を置いていた。
論文 参考訳(メタデータ) (2022-10-18T15:46:05Z) - Privacy Attacks Against Biometric Models with Fewer Samples:
Incorporating the Output of Multiple Models [2.1874132949602654]
認証システムは、敵がターゲット機械学習モデルの逆を近似するモデル逆攻撃に対して脆弱である。
これは、生体認証モデルを反転させることで、攻撃者が生体認証システムに現実的な生体認証入力を生成できるためである。
本稿では,モデル逆攻撃に必要なトレーニングデータを大幅に削減する手法を提案する。
論文 参考訳(メタデータ) (2022-09-22T14:00:43Z) - FBI: Fingerprinting models with Benign Inputs [17.323638042215013]
本稿では,モデルファミリとその変種の概念を一般化することにより,モデルの大幅な修正に耐性のある指紋認証方式を提案する。
我々は、修正されていない画像である良性入力が、両方のタスクに十分な材料であることを実証することによって、両方の目標を達成する。
どちらのアプローチも、かつてない1000以上のネットワークに対して実験的に検証されている。
論文 参考訳(メタデータ) (2022-08-05T13:55:36Z) - Reversible Watermarking in Deep Convolutional Neural Networks for
Integrity Authentication [78.165255859254]
整合性認証のための可逆透かしアルゴリズムを提案する。
可逆透かしを埋め込むことが分類性能に及ぼす影響は0.5%未満である。
同時に、可逆的な透かしを適用することでモデルの完全性を検証することができる。
論文 参考訳(メタデータ) (2021-04-09T09:32:21Z) - Practical No-box Adversarial Attacks against DNNs [31.808770437120536]
我々は、攻撃者がモデル情報やトレーニングセットにアクセスしたり、モデルに問い合わせたりできない、ノンボックスの逆例を調査する。
非常に小さなデータセットでトレーニングを行うための3つのメカニズムを提案し、プロトタイプの再構築が最も効果的であることを示す。
提案手法は, システムの平均予測精度を15.40%に低下させ, 事前学習したArcfaceモデルから, 敵のサンプルを転送する攻撃と同等にする。
論文 参考訳(メタデータ) (2020-12-04T11:10:03Z) - Knowledge-Enriched Distributional Model Inversion Attacks [49.43828150561947]
モデルインバージョン(MI)攻撃は、モデルパラメータからトレーニングデータを再構成することを目的としている。
本稿では,パブリックデータからプライベートモデルに対する攻撃を行うのに役立つ知識を抽出する,新しい反転型GANを提案する。
実験の結果,これらの手法を組み合わせることで,最先端MI攻撃の成功率を150%向上させることができることがわかった。
論文 参考訳(メタデータ) (2020-10-08T16:20:48Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。