論文の概要: Free-text Keystroke Authentication using Transformers: A Comparative
Study of Architectures and Loss Functions
- arxiv url: http://arxiv.org/abs/2310.11640v1
- Date: Wed, 18 Oct 2023 00:34:26 GMT
- ステータス: 処理完了
- システム内更新日: 2023-10-19 12:19:51.777737
- Title: Free-text Keystroke Authentication using Transformers: A Comparative
Study of Architectures and Loss Functions
- Title(参考訳): トランスフォーマーを用いたフリーテキストキーストローク認証:アーキテクチャと損失関数の比較検討
- Authors: Saleh Momeni and Bagher BabaAli
- Abstract要約: キーストロークバイオメトリックスは、個人のタイピング行動におけるユニークなパターンを活用する、ユーザ識別と検証のための有望なアプローチである。
本稿では,キーストロークシーケンスから情報的特徴を抽出する自己注意型トランスフォーマーネットワークを提案する。
我々のモデルは、フリーテキストキーストローク認証における従来の最先端技術を上回る。
- 参考スコア(独自算出の注目度): 1.0152838128195467
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Keystroke biometrics is a promising approach for user identification and
verification, leveraging the unique patterns in individuals' typing behavior.
In this paper, we propose a Transformer-based network that employs
self-attention to extract informative features from keystroke sequences,
surpassing the performance of traditional Recurrent Neural Networks. We explore
two distinct architectures, namely bi-encoder and cross-encoder, and compare
their effectiveness in keystroke authentication. Furthermore, we investigate
different loss functions, including triplet, batch-all triplet, and WDCL loss,
along with various distance metrics such as Euclidean, Manhattan, and cosine
distances. These experiments allow us to optimize the training process and
enhance the performance of our model. To evaluate our proposed model, we employ
the Aalto desktop keystroke dataset. The results demonstrate that the
bi-encoder architecture with batch-all triplet loss and cosine distance
achieves the best performance, yielding an exceptional Equal Error Rate of
0.0186%. Furthermore, alternative algorithms for calculating similarity scores
are explored to enhance accuracy. Notably, the utilization of a one-class
Support Vector Machine reduces the Equal Error Rate to an impressive 0.0163%.
The outcomes of this study indicate that our model surpasses the previous
state-of-the-art in free-text keystroke authentication. These findings
contribute to advancing the field of keystroke authentication and offer
practical implications for secure user verification systems.
- Abstract(参考訳): key stroke biometricsは、個人のタイピング行動におけるユニークなパターンを活用して、ユーザ識別と検証に有望なアプローチである。
本稿では,従来のニューラルネットワークの性能を上回って,キーストローク列から情報的特徴を抽出するために自己アテンションを用いたトランスフォーマーネットワークを提案する。
両エンコーダとクロスエンコーダという2つの異なるアーキテクチャを探索し、キーストローク認証の有効性を比較する。
さらに,三重項,バッチオール三重項,wdcl損失,ユークリッド距離,マンハッタン距離,コサイン距離などの様々な距離指標について検討した。
これらの実験により、トレーニングプロセスを最適化し、モデルの性能を向上させることができる。
提案モデルの評価にはAaltoデスクトップキーストロークデータセットを用いる。
その結果,全トリプルトロスとコサイン距離を持つバイエンコーダアーキテクチャが最良性能を達成し,誤差率は0.0186%であった。
さらに、類似度スコアを計算するための代替アルゴリズムを検討し、精度を高める。
特に、一級サポートベクトルマシンの利用により、Equal Error Rateは印象的な0.0163%に低下する。
本研究の結果から,我々のモデルは従来のフリーテキストキーストローク認証に勝っていることが示された。
これらの結果はキーストローク認証の分野の進展に寄与し,セキュアなユーザ認証システムに対して実用的な意味を持つ。
関連論文リスト
- Multi-threshold Deep Metric Learning for Facial Expression Recognition [60.26967776920412]
本稿では,難易度検証を回避する多閾値深度学習手法を提案する。
その結果,三重項損失のそれぞれの閾値は本質的にクラス間変動の特異な分布を決定することがわかった。
埋め込み層はスライスで構成されており、より情報的で差別的な特徴である。
論文 参考訳(メタデータ) (2024-06-24T08:27:31Z) - Sparse Autoencoders Enable Scalable and Reliable Circuit Identification in Language Models [0.0]
本稿では,大規模言語モデルにおける解釈可能な回路を発見するための,効率的かつ堅牢な手法を提案する。
本稿では, 慎重に設計した正負の例に対して, スパースオートエンコーダを訓練する。
本研究は,スケーラブルかつ効率的な機械的解釈性を実現するための離散スパースオートエンコーダの実現を示唆するものである。
論文 参考訳(メタデータ) (2024-05-21T06:26:10Z) - Keystroke Verification Challenge (KVC): Biometric and Fairness Benchmark
Evaluation [21.63351064421652]
生体認証のためのキーストローク力学(KD)にはいくつかの利点がある。
KDは最も差別的な行動特性の1つである。
KDに基づく生体認証性能と公正性を評価するための新しい実験フレームワークを提案する。
論文 参考訳(メタデータ) (2023-11-10T11:23:28Z) - Self-Distilled Masked Auto-Encoders are Efficient Video Anomaly
Detectors [117.61449210940955]
ビデオフレームレベルで適用された軽量マスク付きオートエンコーダ(AE)に基づく効率的な異常事象検出モデルを提案する。
動き勾配に基づく重みトークンへのアプローチを導入し、静的背景シーンから前景オブジェクトへ焦点を移す。
トレーニングビデオの強化のために合成異常事象を生成し,マスク付きAEモデルを用いてオリジナルのフレームを共同で再構築する。
論文 参考訳(メタデータ) (2023-06-21T06:18:05Z) - The Wyner Variational Autoencoder for Unsupervised Multi-Layer Wireless
Fingerprinting [6.632671046812309]
識別性能を向上させるための多層署名を共同で検討する多層フィンガープリントフレームワークを提案する。
従来の手法とは対照的に,近年のマルチビュー機械学習のパラダイムを活用して,マルチレイヤ機能間で共有されるデバイス情報を,監督なしでクラスタ化することができる。
実験の結果,提案手法は教師なしと教師なしの両方の設定において,最先端のベースラインよりも優れていた。
論文 参考訳(メタデータ) (2023-03-28T10:05:06Z) - BeCAPTCHA-Type: Biometric Keystroke Data Generation for Improved Bot
Detection [63.447493500066045]
本研究では,キーストローク生体データ合成のためのデータ駆動学習モデルを提案する。
提案手法は,ユニバーサルモデルとユーザ依存モデルに基づく2つの統計的手法と比較する。
実験フレームワークでは16万件の被験者から1億3600万件のキーストロークイベントのデータセットについて検討している。
論文 参考訳(メタデータ) (2022-07-27T09:26:15Z) - Human-Object Interaction Detection via Disentangled Transformer [63.46358684341105]
本稿では,2つのサブタスクの学習を容易にするために,エンコーダとデコーダの両方をアンタングル化するDisentangled Transformerを提案する。
提案手法は,2つの公開HOIベンチマークにおいて,従来よりも大きなマージンを達成している。
論文 参考訳(メタデータ) (2022-04-20T08:15:04Z) - Encoding Syntactic Knowledge in Transformer Encoder for Intent Detection
and Slot Filling [6.234581622120001]
本稿では,インテント検出とスロットフィリングのための構文知識を符号化したトランスフォーマーエンコーダアーキテクチャを提案する。
シンタクティックな知識をトランスフォーマーエンコーダにエンコードし、マルチタスク学習を通じて各トークンの構文的パース祖先と部分音声を予測する。
論文 参考訳(メタデータ) (2020-12-21T21:25:11Z) - Autoencoding Variational Autoencoder [56.05008520271406]
我々は,この行動が学習表現に与える影響と,自己整合性の概念を導入することでそれを修正する結果について検討する。
自己整合性アプローチで訓練されたエンコーダは、敵攻撃による入力の摂動に対して頑健な(無神経な)表現につながることを示す。
論文 参考訳(メタデータ) (2020-12-07T14:16:14Z) - A Unified Framework of Surrogate Loss by Refactoring and Interpolation [65.60014616444623]
勾配勾配を有する深層ネットワークのトレーニングにおいて,サロゲート損失を発生させる統一フレームワークUniLossを導入する。
3つのタスクと4つのデータセットに対するUniLossの有効性を検証する。
論文 参考訳(メタデータ) (2020-07-27T21:16:51Z) - Learning to hash with semantic similarity metrics and empirical KL
divergence [3.04585143845864]
ハッシュの学習は、大規模データベースからの近接探索を正確に、そして近似的に行うための効率的なパラダイムである。
バイナリハッシュコードは典型的には、CNNから出力特徴を丸め、イメージから抽出される。
i) 学習特徴の相対的なハッシュコード距離を目標値と一致するように促進する新規な損失関数により, (i) を克服する。
我々は、ネットワーク出力とバイナリターゲット分布のKL分散の微分可能な推定を通じて、(ii)に対処し、その結果、特徴がバイナリに丸められたときの情報損失を最小限に抑える。
論文 参考訳(メタデータ) (2020-05-11T08:20:26Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。