論文の概要: Privacy Preserving Machine Learning for Behavioral Authentication
Systems
- arxiv url: http://arxiv.org/abs/2309.13046v1
- Date: Thu, 31 Aug 2023 19:15:26 GMT
- ステータス: 処理完了
- システム内更新日: 2023-10-01 12:34:38.423795
- Title: Privacy Preserving Machine Learning for Behavioral Authentication
Systems
- Title(参考訳): 行動認証システムのためのプライバシー保護機械学習
- Authors: Md Morshedul Islam and Md Abdur Rafiq
- Abstract要約: 行動認証(BA)システムは、ユーザの行動特性を使用して、アイデンティティークレームの検証を行う。
他のニューラルネットワーク(NN)アーキテクチャと同様に、BAシステムのNN分類器は、プライバシ攻撃に対して脆弱である。
我々は、MLベースのプライバシ攻撃を導入し、提案システムは、これや他のプライバシおよびセキュリティ攻撃に対して堅牢である。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: A behavioral authentication (BA) system uses the behavioral characteristics
of users to verify their identity claims. A BA verification algorithm can be
constructed by training a neural network (NN) classifier on users' profiles.
The trained NN model classifies the presented verification data, and if the
classification matches the claimed identity, the verification algorithm accepts
the claim. This classification-based approach removes the need to maintain a
profile database. However, similar to other NN architectures, the NN classifier
of the BA system is vulnerable to privacy attacks. To protect the privacy of
training and test data used in an NN different techniques are widely used. In
this paper, our focus is on a non-crypto-based approach, and we used random
projection (RP) to ensure data privacy in an NN model. RP is a
distance-preserving transformation based on a random matrix. Before sharing the
profiles with the verifier, users will transform their profiles by RP and keep
their matrices secret. To reduce the computation load in RP, we use sparse
random projection, which is very effective for low-compute devices. Along with
correctness and security properties, our system can ensure the changeability
property of the BA system. We also introduce an ML-based privacy attack, and
our proposed system is robust against this and other privacy and security
attacks. We implemented our approach on three existing behavioral BA systems
and achieved a below 2.0% FRR and a below 1.0% FAR rate. Moreover, the machine
learning-based privacy attacker can only recover below 3.0% to 12.0% of
features from a portion of the projected profiles. However, these recovered
features are not sufficient to know details about the users' behavioral pattern
or to be used in a subsequent attack. Our approach is general and can be used
in other NN-based BA systems as well as in traditional biometric systems.
- Abstract(参考訳): 行動認証(BA)システムは、ユーザの行動特性を使用して、アイデンティティークレームを検証する。
ba検証アルゴリズムは、ユーザのプロファイル上でニューラルネットワーク(nn)分類器をトレーニングすることで構築することができる。
トレーニングされたNNモデルは、提示された検証データを分類し、もしその分類がクレームIDと一致した場合、検証アルゴリズムはクレームを受理する。
この分類ベースのアプローチでは、プロファイルデータベースを維持する必要がなくなる。
しかし、他のNNアーキテクチャと同様に、BAシステムのNN分類器はプライバシー攻撃に弱い。
NNで使用されるトレーニングやテストデータのプライバシを保護するために、さまざまな技術が広く使用されている。
本稿では,非暗号ベースのアプローチに着目し,ランダムプロジェクション(RP)を用いてNNモデルのデータのプライバシを確保する。
RPはランダム行列に基づく距離保存変換である。
検証者とプロファイルを共有する前に、ユーザーはプロファイルをrpで変換し、行列を秘密にしておく。
RPの計算負荷を低減するために,低消費電力デバイスに非常に有効であるスパースランダムプロジェクションを用いる。
本システムでは,正当性とセキュリティ特性とともに,BAシステムの変更性を保証する。
また、MLベースのプライバシ攻撃を導入し、提案システムは、これや他のプライバシおよびセキュリティ攻撃に対して堅牢である。
既存の3つの行動BAシステムにアプローチを導入し,FRRが2.0%,FARが1.0%であった。
さらに、機械学習ベースのプライバシ攻撃者は、プロファイルの一部から3.0%から12.0%未満の機能しか回復できない。
しかし、これらの回復した機能は、ユーザの行動パターンの詳細を知るのに十分ではなく、その後の攻撃で使用するのに十分ではない。
我々のアプローチは一般的であり、他のNNベースのBAシステムや従来の生体認証システムでも利用できる。
関連論文リスト
- Pseudo-Probability Unlearning: Towards Efficient and Privacy-Preserving Machine Unlearning [59.29849532966454]
本稿では,PseudoProbability Unlearning (PPU)を提案する。
提案手法は,最先端の手法に比べて20%以上の誤りを忘れる改善を実現している。
論文 参考訳(メタデータ) (2024-11-04T21:27:06Z) - One-shot lip-based biometric authentication: extending behavioral
features with authentication phrase information [3.038642416291856]
リップベースバイオメトリック認証(LBBA)は、カメラセンサが捉えたビデオデータの形態で、音声中の人の唇の動きに基づく認証方法である。
LBBAは、RGBカメラ以外の追加の感覚機器を必要とすることなく、唇の動きの物理的特性と行動的特性を両立させることができる。
論文 参考訳(メタデータ) (2023-08-14T05:34:36Z) - Tight Auditing of Differentially Private Machine Learning [77.38590306275877]
プライベート機械学習では、既存の監査メカニズムは厳格である。
彼らは不確実な最悪の仮定の下でのみ厳密な見積もりを行う。
我々は、自然(逆向きではない)データセットの厳密なプライバシー推定を得られる改善された監査スキームを設計する。
論文 参考訳(メタデータ) (2023-02-15T21:40:33Z) - Privacy-Preserved Neural Graph Similarity Learning [99.78599103903777]
本稿では,グラフ類似性学習のためのプライバシ保存型ニューラルグラフマッチングネットワークモデルPPGMを提案する。
再構成攻撃を防ぐため、提案モデルではデバイス間でノードレベルの表現を通信しない。
グラフプロパティに対する攻撃を軽減するため、両方のベクトルの情報を含む難読化機能は通信される。
論文 参考訳(メタデータ) (2022-10-21T04:38:25Z) - Multi-class Classifier based Failure Prediction with Artificial and
Anonymous Training for Data Privacy [0.0]
故障予測のためのニューラルネットワークに基づくマルチクラス分類器を開発した。
提案したメカニズムは、トレーニングプロセスで使用されるデータセットを、プライベートに保持されている実際のデータから完全に分離する。
その結果,異なるパラメータ構成下での故障予測の精度が向上した。
論文 参考訳(メタデータ) (2022-09-06T07:53:33Z) - Evaluation of Neural Networks Defenses and Attacks using NDCG and
Reciprocal Rank Metrics [6.6389732792316]
分類タスクにおけるニューラルネットワークの出力に対する攻撃効果、防衛効果の回復効果を特に測定するために設計された2つの指標を示す。
正規化された累積ゲインと、情報検索文献で使用される相互ランクの指標に着想を得て、ニューラルネットワーク予測を結果のランクリストとして扱う。
一般的な分類指標と比較すると,提案指標は優れた情報的・独特性を示す。
論文 参考訳(メタデータ) (2022-01-10T12:54:45Z) - PASS: Protected Attribute Suppression System for Mitigating Bias in Face
Recognition [55.858374644761525]
顔認識ネットワークは、識別分類のために訓練されている間、機密属性に関する情報を符号化する。
既存のバイアス緩和アプローチでは、エンドツーエンドのトレーニングが必要であり、高い精度を達成できない。
PASS(Protected Attribute Suppression System)と呼ばれる記述子に基づく逆バイアス除去手法を提案する。
パスは、以前に訓練されたハイパフォーマンスネットワークから得られた記述子を使って、アイデンティティを分類し、機密属性のエンコーディングを同時に削減することができる。
論文 参考訳(メタデータ) (2021-08-09T00:39:22Z) - Security and Privacy Enhanced Gait Authentication with Random
Representation Learning and Digital Lockers [3.3549957463189095]
慣性センサーによってキャプチャされた歩行データは、ユーザ認証において有望な結果を示している。
既存のほとんどのアプローチでは、登録された歩行パターンをパターンと一致させるために安全に保存しているため、重要なセキュリティとプライバシの問題が発生している。
本稿では,歩行データからユーザ認証のためのランダムキーを生成するゲイト暗号システムを提案する。
論文 参考訳(メタデータ) (2021-08-05T06:34:42Z) - Balancing Biases and Preserving Privacy on Balanced Faces in the Wild [50.915684171879036]
現在の顔認識(FR)モデルには、人口統計バイアスが存在する。
さまざまな民族と性別のサブグループにまたがる偏見を測定するために、我々のバランス・フェイススをWildデータセットに導入します。
真偽と偽のサンプルペアを区別するために1点のスコアしきい値に依存すると、最適以下の結果が得られます。
本稿では,最先端ニューラルネットワークから抽出した顔特徴を用いたドメイン適応学習手法を提案する。
論文 参考訳(メタデータ) (2021-03-16T15:05:49Z) - Towards Probabilistic Verification of Machine Unlearning [30.892906429582904]
本稿では,データ削除要求に対する検証機構の設計について研究する形式的枠組みを提案する。
提案手法は,機械学習サービスの精度に最小限の影響を与えるが,未学習に対する信頼性の高い検証を可能にする。
論文 参考訳(メタデータ) (2020-03-09T16:39:46Z) - CryptoSPN: Privacy-preserving Sum-Product Network Inference [84.88362774693914]
総生産ネットワーク(SPN)のプライバシ保護のためのフレームワークを提案する。
CryptoSPNは、中規模のSPNに対して秒の順序で高効率で正確な推論を行う。
論文 参考訳(メタデータ) (2020-02-03T14:49:18Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。