論文の概要: Active Authentication via Korean Keystrokes Under Varying LLM Assistance and Cognitive Contexts
- arxiv url: http://arxiv.org/abs/2509.24807v1
- Date: Mon, 29 Sep 2025 13:57:16 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-30 22:32:20.031024
- Title: Active Authentication via Korean Keystrokes Under Varying LLM Assistance and Cognitive Contexts
- Title(参考訳): 韓国キーストロークによるLCM支援と認知的文脈下でのアクティブ認証
- Authors: Dong Hyun Roh, Rajesh Kumar,
- Abstract要約: 韓国語におけるキーストロークに基づく認証は、3つの現実的なタイピングシナリオで評価する。
本システムは,LLMの使用状況や認知的文脈にまたがって,信頼性の高い性能を維持していることを示す。
- 参考スコア(独自算出の注目度): 3.091662349810693
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Keystroke dynamics is a promising modality for active user authentication, but its effectiveness under varying LLM-assisted typing and cognitive conditions remains understudied. Using data from 50 users and cognitive labels from Bloom's Taxonomy, we evaluate keystroke-based authentication in Korean across three realistic typing scenarios: bona fide composition, LLM content paraphrasing, and transcription. Our pipeline incorporates continuity-aware segmentation, feature extraction, and classification via SVM, MLP, and XGB. Results show that the system maintains reliable performance across varying LLM usages and cognitive contexts, with Equal Error Rates ranging from 5.1% to 10.4%. These findings demonstrate the feasibility of behavioral authentication under modern writing conditions and offer insights into designing more context-resilient models.
- Abstract(参考訳): キーストロークダイナミクスはアクティブなユーザ認証において有望なモダリティであるが,LLMによる様々なタイピングおよび認知条件下での有効性はいまだ検討されていない。
韓国のBloom's Taxonomyの50名のユーザと認知ラベルから,ボナフィド合成,LLM内容パラフレージング,転写という3つの現実的なタイピングシナリオにおいて,韓国におけるキーストロークに基づく認証を評価した。
パイプラインには連続性を考慮したセグメンテーション,特徴抽出,SVM,MLP,XGBによる分類が組み込まれている。
その結果、システムはLLMの使用状況や認知状況にまたがって信頼性の高い性能を維持しており、Equal Error Ratesは5.1%から10.4%であることがわかった。
これらの知見は、現代の書記条件下での行動認証の実現可能性を示し、よりコンテキスト耐性のあるモデルの設計に関する洞察を提供する。
関連論文リスト
- Where MLLMs Attend and What They Rely On: Explaining Autoregressive Token Generation [59.40886078302025]
マルチモーダル大規模言語モデル(MLLM)は、視覚入力と自然言語出力の整合性を示す。
しかし、生成したトークンが視覚的モダリティに依存する範囲は、いまだに理解されていない。
MLLMにおける自己回帰トークン生成を説明するための軽量なブラックボックスフレームワークを提案する。
論文 参考訳(メタデータ) (2025-09-26T15:38:42Z) - LLM-Assisted Cheating Detection in Korean Language via Keystrokes [1.9344365651682767]
本稿では,韓国におけるLLM支援不正検出のためのキーストロークに基づくフレームワークを提案する。
我々のデータセットには,3つの条件下でタスクを完了した69人の参加者が含まれている。
論文 参考訳(メタデータ) (2025-07-29T20:59:03Z) - Skill Learning via Policy Diversity Yields Identifiable Representations for Reinforcement Learning [67.90033766878962]
自己指導型特徴学習(RL)は、相互情報スキル学習(MISL)と呼ばれる情報理論の原則に依存することが多い。
本研究は,MISLを識別可能な表現学習のレンズを用いて検討する。
コントラスト継承機能(Contrastive Successor Features, CSF)は, 線形変換まで環境の地下構造を確実に復元できることを実証する。
論文 参考訳(メタデータ) (2025-07-19T20:48:46Z) - An Empirical Study of Federated Prompt Learning for Vision Language Model [89.2963764404892]
本稿では,言語プロンプト学習(VPT)と視覚プロンプト学習(VLM)の行動的差異を系統的に検討する。
我々は、FPL(Federated Prompt Learning)の堅牢性を評価するために、クライアントスケール、集約戦略、即時長といった様々なFLと迅速な構成の影響を評価する。
論文 参考訳(メタデータ) (2025-05-29T03:09:15Z) - Learning to Focus: Context Extraction for Efficient Code Vulnerability Detection with Language Models [16.23854525619129]
言語モデル(LM)は脆弱性検出の約束を示すが、脆弱で不確実な脆弱性位置のため、長く現実世界のコードに苦労する。
本研究では、LMに基づく脆弱性検出を学習し、センシティブなコンテキストを選択するモデルに依存しないフレームワークであるFocusVulを提案する。
論文 参考訳(メタデータ) (2025-05-23T04:41:54Z) - ReCaLL: Membership Inference via Relative Conditional Log-Likelihoods [56.073335779595475]
本稿ではReCaLL(Relative Conditional Log-Likelihood)を提案する。
実験の結果,非メンバープレフィックスの条件付きメンバーデータは,非メンバーデータと比較してログライクな傾向が著しく低下することがわかった。
我々は総合的な実験を行い、ReCaLLがWikiMIAデータセット上で最先端のパフォーマンスを達成することを示す。
論文 参考訳(メタデータ) (2024-06-23T00:23:13Z) - Do LLMs Dream of Ontologies? [13.776194387957617]
大規模モデル言語(LLM)は、様々な自然言語処理タスクにまたがる顕著な記憶を実証している。
本稿では,LLMが公開リソースから概念識別子(ID)-ラベル関連を正しく再現する範囲について検討する。
論文 参考訳(メタデータ) (2024-01-26T15:10:23Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。