論文の概要: Neural Fuzzy Extractors: A Secure Way to Use Artificial Neural Networks
for Biometric User Authentication
- arxiv url: http://arxiv.org/abs/2003.08433v1
- Date: Wed, 18 Mar 2020 18:48:25 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-22 13:27:04.054967
- Title: Neural Fuzzy Extractors: A Secure Way to Use Artificial Neural Networks
for Biometric User Authentication
- Title(参考訳): ニューラルファジィエクストラクタ:バイオメトリックユーザ認証にニューラルネットワークを使用するセキュアな方法
- Authors: Abhishek Jana, Md Kamruzzaman Sarker, Monireh Ebrahimi, Pascal
Hitzler, George T Amariucai
- Abstract要約: 生体認証(および識別)は急速に普及しつつある。
機械学習技術に基づくバイオメトリック認証の現代的なアプローチでは、トレーニング済みの分類器の詳細や明示的なユーザバイオメトリックデータの保存は避けられない。
本稿では,ベクトル空間分類器やニューラルネットワークを用いて生体認証を行う際の,ユーザ固有の情報をセキュアに処理する方法を提案する。
- 参考スコア(独自算出の注目度): 4.336339417476209
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Powered by new advances in sensor development and artificial intelligence,
the decreasing cost of computation, and the pervasiveness of handheld
computation devices, biometric user authentication (and identification) is
rapidly becoming ubiquitous. Modern approaches to biometric authentication,
based on sophisticated machine learning techniques, cannot avoid storing either
trained-classifier details or explicit user biometric data, thus exposing
users' credentials to falsification. In this paper, we introduce a secure way
to handle user-specific information involved with the use of vector-space
classifiers or artificial neural networks for biometric authentication. Our
proposed architecture, called a Neural Fuzzy Extractor (NFE), allows the
coupling of pre-existing classifiers with fuzzy extractors, through a
artificial-neural-network-based buffer called an expander, with minimal or no
performance degradation. The NFE thus offers all the performance advantages of
modern deep-learning-based classifiers, and all the security of standard fuzzy
extractors. We demonstrate the NFE retrofit to a classic artificial neural
network for a simple scenario of fingerprint-based user authentication.
- Abstract(参考訳): センサ開発と人工知能の新たな進歩、計算コストの低減、ハンドヘルド計算デバイスの普及により、生体認証(および識別)が急速に普及している。
高度な機械学習技術に基づくバイオメトリック認証への現代的なアプローチは、訓練済みの分類器の詳細または明示的なユーザバイオメトリックデータの保存を回避できないため、ユーザの認証情報が偽造される。
本稿では,生体認証のためのベクトル空間分類器や人工ニューラルネットワークを用いたユーザ固有情報を扱うためのセキュアな方法を提案する。
提案アーキテクチャはニューラルファジィ・エクストラクタ (NFE) と呼ばれ,既存の分類器とファジィ抽出器の結合を可能にする。
したがって、NFEは、現代のディープラーニングベースの分類器のすべてのパフォーマンス上の利点と、標準的なファジィ抽出器のセキュリティを提供する。
従来型ニューラルネットワークのnfeを,指紋認証によるユーザ認証の簡単なシナリオに適合させることを実証する。
関連論文リスト
- Real-world Edge Neural Network Implementations Leak Private Interactions Through Physical Side Channel [7.693037237501675]
我々は、物理デバイスの電磁放射を利用して、ニューラルネットワークとユーザインタラクションを抽出する、一般的な物理的サイドチャネル攻撃(ScaAR)を導入する。
提案する攻撃は実装に依存しないため,ハードウェアやソフトウェアの実装に関する詳細な知識を敵に持つ必要はない。
論文 参考訳(メタデータ) (2025-01-24T14:15:51Z) - Evaluating Single Event Upsets in Deep Neural Networks for Semantic Segmentation: an embedded system perspective [1.474723404975345]
本稿では,組み込みディープニューラルネットワーク(DNN)のロバスト性評価について述べる。
本研究は,様々なエンコーダデコーダモデルの層間およびビット間感度をソフトエラーに精査することにより,セグメント化DNNのSEUに対する脆弱性を徹底的に調査する。
本稿では,資源制約によるデプロイメントに適したメモリや計算コストを伴わない,実用的な軽量なエラー軽減手法を提案する。
論文 参考訳(メタデータ) (2024-12-04T18:28:38Z) - Contrastive Learning in Memristor-based Neuromorphic Systems [55.11642177631929]
スパイクニューラルネットワークは、現代のバックプロパゲーションによって訓練されたディープネットワークに直面する重要な制約の多くを横取りする、ニューロンベースのモデルの重要なファミリーとなっている。
本研究では,前向き・後向き学習のニューロモルフィック形式であるコントラッシブ・シグナル依存型塑性(CSDP)の概念実証を設計し,検討する。
論文 参考訳(メタデータ) (2024-09-17T04:48:45Z) - Biometrics Employing Neural Network [0.0]
指紋、虹彩、網膜パターン、顔認識、手形、手のひら印刷、音声認識はバイオメトリックスの形式としてよく用いられる。
システムが効果的で広く受け入れられるためには、認識と検証におけるエラー率はゼロに近づかなければならない。
人間の脳の動作をシミュレートする人工ニューラルネットワークは、自身を有望なアプローチとして提示する。
論文 参考訳(メタデータ) (2024-02-01T03:59:04Z) - AFR-Net: Attention-Driven Fingerprint Recognition Network [47.87570819350573]
指紋認識を含む生体認証における視覚変換器(ViT)の使用に関する初期研究を改善する。
ネットワーク内の中間特徴マップから抽出した局所的な埋め込みを用いて,グローバルな埋め込みを低確かさで洗練する手法を提案する。
この戦略は、既存のディープラーニングネットワーク(アテンションベース、CNNベース、あるいはその両方を含む)のラッパーとして適用することで、パフォーマンスを向上させることができる。
論文 参考訳(メタデータ) (2022-11-25T05:10:39Z) - Evaluating Deep Learning Models and Adversarial Attacks on
Accelerometer-Based Gesture Authentication [6.961253535504979]
我々は、DC-GAN(Deep Convolutional Generative Adversarial Network)を用いて、敵対的サンプルを作成する。
私たちのディープラーニングモデルは、このような攻撃シナリオに対して驚くほど堅牢であることを示します。
論文 参考訳(メタデータ) (2021-10-03T00:15:50Z) - Towards a Safety Case for Hardware Fault Tolerance in Convolutional
Neural Networks Using Activation Range Supervision [1.7968112116887602]
畳み込みニューラルネットワーク(CNN)は多くの安全クリティカルなコンピュータビジョンアプリケーションの一部として確立されている。
我々は,高度に信頼性の高い故障検知器として範囲監視が重要であることを示すことによって,CNNのプロトタイプ型安全ケースを構築した。
本研究では,無声データ破損の確率と訂正不能な誤りを効果的に抑制する,新しい非一様範囲制限法について検討する。
論文 参考訳(メタデータ) (2021-08-16T11:13:55Z) - Spotting adversarial samples for speaker verification by neural vocoders [102.1486475058963]
我々は、自動話者検証(ASV)のための敵対サンプルを見つけるために、ニューラルボコーダを採用する。
元の音声と再合成音声のASVスコアの違いは、真正と逆正のサンプルの識別に良い指標であることがわかった。
私たちのコードは、将来的な比較作業のためにオープンソースにされます。
論文 参考訳(メタデータ) (2021-07-01T08:58:16Z) - FF-NSL: Feed-Forward Neural-Symbolic Learner [70.978007919101]
本稿では,Feed-Forward Neural-Symbolic Learner (FF-NSL) と呼ばれるニューラルシンボリック学習フレームワークを紹介する。
FF-NSLは、ラベル付き非構造化データから解釈可能な仮説を学習するために、Answer Setセマンティクスに基づく最先端のICPシステムとニューラルネットワークを統合する。
論文 参考訳(メタデータ) (2021-06-24T15:38:34Z) - Artificial Neural Variability for Deep Learning: On Overfitting, Noise
Memorization, and Catastrophic Forgetting [135.0863818867184]
人工ニューラルネットワーク(ANV)は、ニューラルネットワークが自然のニューラルネットワークからいくつかの利点を学ぶのに役立つ。
ANVは、トレーニングデータと学習モデルの間の相互情報の暗黙の正則化として機能する。
過度にフィットし、ノイズの記憶をラベル付けし、無視できるコストで破滅的な忘れを効果的に軽減することができる。
論文 参考訳(メタデータ) (2020-11-12T06:06:33Z) - Rectified Linear Postsynaptic Potential Function for Backpropagation in
Deep Spiking Neural Networks [55.0627904986664]
スパイキングニューラルネットワーク(SNN)は、時間的スパイクパターンを用いて情報を表現し、伝達する。
本稿では,情報符号化,シナプス可塑性,意思決定におけるスパイクタイミングダイナミクスの寄与について検討し,将来のDeepSNNやニューロモルフィックハードウェアシステムの設計への新たな視点を提供する。
論文 参考訳(メタデータ) (2020-03-26T11:13:07Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。