論文の概要: Type2Branch: Keystroke Biometrics based on a Dual-branch Architecture with Attention Mechanisms and Set2set Loss
- arxiv url: http://arxiv.org/abs/2405.01088v2
- Date: Mon, 10 Feb 2025 10:52:42 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-02-11 14:25:37.653054
- Title: Type2Branch: Keystroke Biometrics based on a Dual-branch Architecture with Attention Mechanisms and Set2set Loss
- Title(参考訳): Type2Branch: 注意機構とset2set損失を持つデュアルブランチアーキテクチャに基づくキーストロークバイオメトリックス
- Authors: Nahuel González, Giuseppe Stragapede, Rubén Vera-Rodriguez, Rubén Tolosana,
- Abstract要約: この記事では、KVC-onGoingコンペティションで最も低いエラー率を達成したモデルとテクニックであるType2Branchについて説明する。
約50文字が入力された被験者あたりの5つの登録サンプルを考えると、提案したType2Branchは最先端のパフォーマンスを実現している。
- 参考スコア(独自算出の注目度): 5.23087771966975
- License:
- Abstract: In 2021, the pioneering work TypeNet showed that keystroke dynamics verification could scale to hundreds of thousands of users with minimal performance degradation. Recently, the KVC-onGoing competition has provided an open and robust experimental protocol for evaluating keystroke dynamics verification systems of such scale. %, including considerations of algorithmic fairness. This article describes Type2Branch, the model and techniques that achieved the lowest error rates at the KVC-onGoing, in both desktop and mobile typing scenarios. The novelty aspects of the proposed Type2Branch include: i) synthesized timing features emphasizing user behavior deviation from the general population, ii) a dual-branch architecture combining recurrent and convolutional paths with various attention mechanisms, iii) a new loss function named Set2set that captures the global structure of the embedding space, and iv) a training curriculum of increasing difficulty. Considering five enrollment samples per subject of approximately 50 characters typed, the proposed Type2Branch achieves state-of-the-art performance with mean per-subject Equal Error Rates (EERs) of 0.77% and 1.03% on evaluation sets of respectively 15,000 and 5,000 subjects for desktop and mobile scenarios. With a fixed global threshold for all subjects, the EERs are respectively 3.25% and 3.61% for desktop and mobile scenarios, outperforming previous approaches by a significant margin. The source code for dataset generation, model, and training process is publicly available.
- Abstract(参考訳): 2021年、TypeNetの先駆的な研究により、キーストロークのダイナミックス検証は、パフォーマンスの低下を最小限に抑えながら、数十万のユーザに拡張可能であることが示された。
近年、KVC-onGoingコンペティションは、キーストロークの動的検証システムを評価するためのオープンで堅牢な実験プロトコルを提供している。
1%であり,アルゴリズム的公正性も考慮した。
この記事では、デスクトップおよびモバイルのタイピングシナリオにおいて、KVC-onGoingで最低エラー率を達成したモデルとテクニックであるType2Branchについて説明する。
提案された2ブランチの斬新な側面には、以下のものがある。
一 一般人口からのユーザ行動の逸脱を強調した合成タイミング特徴
二 反復経路及び畳み込み経路を各種の注意機構と組み合わせた二重分岐構造
三 埋設空間のグローバル構造を捕捉するSet2setという新たな損失関数
四 困難を増す訓練カリキュラム
提案したType2Branchは,約50文字をタイプした被験者毎の5つの登録サンプルを考慮し,デスクトップシナリオとモバイルシナリオのそれぞれ15,000件と5000件の評価セットに対して,平均オブジェクトごとのEER(Equal Error Rates)を0.77%,1.03%で達成した。
すべての被験者に対して固定されたグローバルしきい値で、EERはデスクトップとモバイルのシナリオでそれぞれ3.25%と3.61%であり、以前のアプローチよりもかなりの差がある。
データセット生成、モデル、トレーニングプロセスのソースコードが公開されている。
関連論文リスト
- Hymba: A Hybrid-head Architecture for Small Language Models [65.94140459055244]
Hymbaは、ハイブリッドヘッド並列アーキテクチャを特徴とする、小さな言語モデルのファミリーである。
重要な情報を保持するプロンプトに先立って,学習可能なメタトークンを導入する。
このモデルは、層間鍵値共有と部分的スライディングウィンドウアテンションを組み込むことにより、さらに最適化される。
論文 参考訳(メタデータ) (2024-11-20T19:51:25Z) - Hybrid-Segmentor: A Hybrid Approach to Automated Fine-Grained Crack Segmentation in Civil Infrastructure [52.2025114590481]
エンコーダ・デコーダをベースとした手法であるHybrid-Segmentorを導入する。
これにより、モデルは、様々な種類の形状、表面、き裂の大きさを区別する一般化能力を向上させることができる。
提案モデルは,5つの測定基準(精度0.971,精度0.804,リコール0.744,F1スコア0.770,IoUスコア0.630)で既存ベンチマークモデルより優れ,最先端の状態を達成している。
論文 参考訳(メタデータ) (2024-09-04T16:47:16Z) - Improving ICD coding using Chapter based Named Entities and Attentional Models [0.0]
我々は、章ベースの名前付きエンティティと注意モデルを用いて、F1スコアを改善するICD符号化の強化アプローチを導入する。
本手法は, 放電サマリーをICD-9章に分類し, 章別データを用いた注意モデルを開発する。
分類には第IV章を使用し、ニューラルネットワークを使わずに重要な要素や重みをデバイアスし、影響を及ぼす。
論文 参考訳(メタデータ) (2024-07-24T12:34:23Z) - IEEE BigData 2023 Keystroke Verification Challenge (KVC) [14.366081634293721]
本稿では,185,000人以上の被験者からの可変転写テキストのツイート長列として捉えたKeystroke Dynamicsの生体認証性能について考察する。
データは、これまでで最大規模のKDパブリックデータベースの2つから取得されている。
参加者によっていくつかのニューラルアーキテクチャが提案され、それぞれのチームが達成した3.33%と3.61%という世界的平等エラー率(EER)が達成された。
論文 参考訳(メタデータ) (2024-01-29T20:51:42Z) - Balanced Classification: A Unified Framework for Long-Tailed Object
Detection [74.94216414011326]
従来の検出器は、分類バイアスによる長期データを扱う際の性能劣化に悩まされる。
本稿では,カテゴリ分布の格差に起因する不平等の適応的是正を可能にする,BAlanced CLassification (BACL) と呼ばれる統一フレームワークを提案する。
BACLは、さまざまなバックボーンとアーキテクチャを持つさまざまなデータセット間で、一貫してパフォーマンス改善を実現している。
論文 参考訳(メタデータ) (2023-08-04T09:11:07Z) - Efficient, Uncertainty-based Moderation of Neural Networks Text
Classifiers [8.883733362171034]
本稿では,分類器の出力を効率よく操作できるフレームワークを提案する。
予測の不確実性を利用して、不確実で、おそらく不正確な分類を人間のモデレーターに渡す半自動化アプローチを提案する。
一連のベンチマーク実験により、我々のフレームワークは分類F1スコアを5.1から11.2%改善できることが示された。
論文 参考訳(メタデータ) (2022-04-04T09:07:54Z) - Semi-supervised New Event Type Induction and Description via Contrastive
Loss-Enforced Batch Attention [56.46649994444616]
マスク付きコントラスト損失を用いた半教師付き新しいイベント型誘導手法を提案する。
私たちは、発見したクラスタの型名を予測し、FrameNetフレームにリンクするという、2つの新しいタスクにアプローチを拡張しました。
論文 参考訳(メタデータ) (2022-02-12T00:32:22Z) - Small footprint Text-Independent Speaker Verification for Embedded
Systems [7.123796359179192]
本稿では,話者検証のための2段階モデルアーキテクチャのオーダーを共通解より桁違いに小さくする。
Raspberry Pi 3BのようなIoTシステムに典型的な小型デバイスでソリューションを実行する可能性を示し、5秒の発話で200ms未満のレイテンシを持つ。
論文 参考訳(メタデータ) (2020-11-03T13:53:05Z) - A Two-Stage Approach to Device-Robust Acoustic Scene Classification [63.98724740606457]
デバイスロバスト性を改善するために,完全畳み込みニューラルネットワーク(CNN)に基づく2段階システムを提案する。
以上の結果から,提案したASCシステムにより,開発環境における最先端の精度が得られた。
クラスアクティベーションマッピングを用いたニューラルサリエンシ解析により、モデルによって学習されたパターンに関する新たな洞察が得られる。
論文 参考訳(メタデータ) (2020-11-03T03:27:18Z) - Device-Robust Acoustic Scene Classification Based on Two-Stage
Categorization and Data Augmentation [63.98724740606457]
我々は,GT,USTC,Tencent,UKEの4つのグループからなる共同で,DCASE 2020 Challengeの第1タスク - 音響シーン分類(ASC)に取り組む。
タスク1aは、複数の(実とシミュレートされた)デバイスで記録されたオーディオ信号のASCを10種類の微細なクラスにフォーカスする。
Task 1bは、低複雑さのソリューションを使用して、データを3つの上位クラスに分類することに関心がある。
論文 参考訳(メタデータ) (2020-07-16T15:07:14Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。