論文の概要: KDPrint: Passive Authentication using Keystroke Dynamics-to-Image Encoding via Standardization
- arxiv url: http://arxiv.org/abs/2405.01080v2
- Date: Fri, 3 May 2024 01:24:18 GMT
- ステータス: 処理完了
- システム内更新日: 2024-05-06 11:57:06.829365
- Title: KDPrint: Passive Authentication using Keystroke Dynamics-to-Image Encoding via Standardization
- Title(参考訳): KDPrint: 標準化によるKeystroke Dynamics-to-Image Encodingを用いたパッシブ認証
- Authors: Yooshin Kim, Namhyeok Kwon, Donghoon Shin,
- Abstract要約: 本稿では,プライマリ認証方式の副産物であるキーストロークデータを背景ユーザ認証に用いる受動的認証システムを提案する。
本稿では,キーストロークデータの時間的ダイナミクスを捉え,ディープラーニングモデルの性能制限を克服する新しい画像符号化手法を提案する。
実験の結果,提案手法は情報容量の面で既存の手法を超越していることがわかった。
- 参考スコア(独自算出の注目度): 7.251941112707364
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: In contemporary mobile user authentication systems, verifying user legitimacy has become paramount due to the widespread use of smartphones. Although fingerprint and facial recognition are widely used for mobile authentication, PIN-based authentication is still employed as a fallback option if biometric authentication fails after multiple attempts. Consequently, the system remains susceptible to attacks targeting the PIN when biometric methods are unsuccessful. In response to these concerns, two-factor authentication has been proposed, albeit with the caveat of increased user effort. To address these challenges, this paper proposes a passive authentication system that utilizes keystroke data, a byproduct of primary authentication methods, for background user authentication. Additionally, we introduce a novel image encoding technique to capture the temporal dynamics of keystroke data, overcoming the performance limitations of deep learning models. Furthermore, we present a methodology for selecting suitable behavioral biometric features for image representation. The resulting images, depicting the user's PIN input patterns, enhance the model's ability to uniquely identify users through the secondary channel with high accuracy. Experimental results demonstrate that the proposed imaging approach surpasses existing methods in terms of information capacity. In self-collected dataset experiments, incorporating features from prior research, our method achieved an Equal Error Rate (EER) of 6.7%, outperforming the existing method's 47.7%. Moreover, our imaging technique attained a True Acceptance Rate (TAR) of 94.4% and a False Acceptance Rate (FAR) of 8% for 17 users.
- Abstract(参考訳): 現代のモバイルユーザ認証システムでは,スマートフォンの普及により,ユーザの正当性を検証することが最重要である。
指紋認証と顔認識はモバイル認証に広く使われているが、生体認証が複数回試みて失敗した場合、PINベースの認証は依然としてフォールバックオプションとして使用されている。
その結果、生体認証の手法が失敗した場合、PINを標的とする攻撃に対して、システムは影響を受けないままである。
これらの懸念に応えて、2要素認証が提案されている。
これらの課題に対処するため,本研究では,キーストロークデータ(プライマリ認証手法の副産物)を背景ユーザ認証に用いる受動的認証システムを提案する。
さらに、キーストロークデータの時間的ダイナミクスを捉え、ディープラーニングモデルの性能制限を克服する新しい画像符号化手法を提案する。
さらに,画像表現に適した行動バイオメトリック特徴を選択する手法を提案する。
結果として得られた画像は、ユーザのPIN入力パターンを描写し、高い精度でセカンダリチャネルを通じてユーザを識別するモデルの能力を高める。
実験の結果,提案手法は情報容量の面で既存の手法を超越していることがわかった。
先行研究の特徴を取り入れた自己収集データセット実験において,提案手法はEER(Equal Error Rate)の6.7%を達成し,既存手法の47.7%を上回った。
さらに,画像診断では94.4%のTrue Acceptance Rate,False Acceptance Rate,FAR,False Acceptance Rate,FAR,False Acceptance Rate,FAR,False Acceptance Rate,FAR,False Acceptance Rate,FAR,False Acceptance rate,FAR,False Acceptance rate,FAR,False Acceptance rate,FAR,False Acceptance rate,FAR,False Acceptance rate,FAR,FAR)を得た。
関連論文リスト
- ID-Aligner: Enhancing Identity-Preserving Text-to-Image Generation with Reward Feedback Learning [57.91881829308395]
AIポートレートや広告といった幅広いアプリケーションシナリオのために、ID-T2I(ID-preserving text-to-image generation)が注目されている。
我々は,ID-T2I性能を向上させるための一般的なフィードバック学習フレームワークである textbfID-Aligner を提案する。
論文 参考訳(メタデータ) (2024-04-23T18:41:56Z) - Biometrics Employing Neural Network [0.0]
指紋、虹彩、網膜パターン、顔認識、手形、手のひら印刷、音声認識はバイオメトリックスの形式としてよく用いられる。
システムが効果的で広く受け入れられるためには、認識と検証におけるエラー率はゼロに近づかなければならない。
人間の脳の動作をシミュレートする人工ニューラルネットワークは、自身を有望なアプローチとして提示する。
論文 参考訳(メタデータ) (2024-02-01T03:59:04Z) - Unrecognizable Yet Identifiable: Image Distortion with Preserved Embeddings [22.338328674283062]
本稿では,ニューラルネットワークモデルによる顔画像の識別性を保ちながら,目に対して認識不能な顔画像を描画する,革新的な画像変換手法を提案する。
提案手法は、様々な人工知能アプリケーションにおいて、視覚データを歪曲し、派生した特徴を近接に保つために使用することができる。
同一の認識精度を維持しつつ、画像内容が70%以上変化する歪みを構築することができることを示す。
論文 参考訳(メタデータ) (2024-01-26T18:20:53Z) - Two-Factor Authentication Approach Based on Behavior Patterns for
Defeating Puppet Attacks [7.20329132808002]
PUPGUARDは、人形の攻撃を防ぐために設計されたソリューションである。
ユーザーの行動パターンに基づいており、具体的には認証プロセス中に異なる指で2回連続してキャプチャデバイスを押さなければならない。
実験の結果,PUPGUARDの精度は97.87%,偽陽性率(FPR)は1.89%であった。
論文 参考訳(メタデータ) (2023-11-17T08:35:02Z) - Fingerprint Image-Quality Estimation and its Application to
Multialgorithm Verification [56.128200319868526]
信号品質の認識は、認識率を増大させ、マルチセンサー環境における決定を著しく支援することが見出されている。
本稿では, 指紋画像の向きテンソルを用いて, ノイズ, 構造不足, ぼやけなどの信号障害を, 対称性記述子の助けを借りて定量化する。
定量的な結果は、あらゆる面において品質意識を優先し、認識率を高め、異なるスキルを持つ専門家を効果的かつ効果的に融合させる。
論文 参考訳(メタデータ) (2022-11-24T12:17:49Z) - A high performance fingerprint liveness detection method based on
quality related features [66.41574316136379]
このシステムは、10,500枚以上の実画像と偽画像からなる非常に難しいデータベースでテストされている。
提案手法はマルチシナリオデータセットに対して堅牢であることが証明され、全体の90%が正しく分類されたサンプルである。
論文 参考訳(メタデータ) (2021-11-02T21:09:39Z) - Data-driven behavioural biometrics for continuous and adaptive user
verification using Smartphone and Smartwatch [0.0]
行動バイオメトリックスと多要素認証(MFA)をブレンドするアルゴリズムを提案する。
本研究では,モーションベースバイオメトリックスを用いてユーザの身元を検証するための2段階のユーザ検証アルゴリズムを提案する。
論文 参考訳(メタデータ) (2021-10-07T02:46:21Z) - Harnessing Unrecognizable Faces for Face Recognition [87.80037162457427]
本稿では,顔画像の認識可能性の尺度を提案し,主に認識可能なアイデンティティを用いて訓練されたディープニューラルネットワークによって実現された。
FAR=1e-5において,認識可能性を考慮した場合,単画像認識の誤り率を58%減少させることを示す。
論文 参考訳(メタデータ) (2021-06-08T05:25:03Z) - Multimodal Personal Ear Authentication Using Smartphones [0.0]
指紋認証は、手が濡れている場合は使用できず、マスクを着用している場合は顔認識は使用できない。
スマートフォンにおける生体認証の新しいアプローチとしてピンナを用いた個人認証システムについて検討する。
論文 参考訳(メタデータ) (2021-03-23T14:19:15Z) - Responsible Disclosure of Generative Models Using Scalable
Fingerprinting [70.81987741132451]
深層生成モデルは質的に新しいパフォーマンスレベルを達成した。
この技術がスプーフセンサーに誤用され、ディープフェイクを発生させ、大規模な誤情報を可能にするという懸念がある。
最先端のジェネレーションモデルを責任を持って公開することで、研究者や企業がモデルに指紋を刻むことができます。
論文 参考訳(メタデータ) (2020-12-16T03:51:54Z) - Towards Face Encryption by Generating Adversarial Identity Masks [53.82211571716117]
敵の識別マスクを生成するためのターゲットID保護反復法(TIP-IM)を提案する。
TIP-IMは、様々な最先端の顔認識モデルに対して95%以上の保護成功率を提供する。
論文 参考訳(メタデータ) (2020-03-15T12:45:10Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。