論文の概要: LLM-Assisted Authentication and Fraud Detection
- arxiv url: http://arxiv.org/abs/2601.19684v1
- Date: Tue, 27 Jan 2026 15:01:37 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-30 16:22:49.331221
- Title: LLM-Assisted Authentication and Fraud Detection
- Title(参考訳): LLM支援認証と不正検出
- Authors: Emunah S-S. Chan, Aldar C-F. Chan,
- Abstract要約: 知識に基づく認証は厳格であり、正確なワード・フォー・ワードの文字列マッチングを必要とする。
システムは99.5%の正当性のない回答を受け入れ、0,1%の偽受け入れ率を維持している。
システム基盤 LLM は、モデルの再訓練なしに幻覚を減らし、出現する詐欺パターンに適応するキュレートされた証拠を推論する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: User authentication and fraud detection face growing challenges as digital systems expand and adversaries adopt increasingly sophisticated tactics. Traditional knowledge-based authentication remains rigid, requiring exact word-for-word string matches that fail to accommodate natural human memory and linguistic variation. Meanwhile, fraud-detection pipelines struggle to keep pace with rapidly evolving scam behaviors, leading to high false-positive rates and frequent retraining cycles required. This work introduces two complementary LLM-enabled solutions, namely, an LLM-assisted authentication mechanism that evaluates semantic correctness rather than exact wording, supported by document segmentation and a hybrid scoring method combining LLM judgement with cosine-similarity metrics and a RAG-based fraud-detection pipeline that grounds LLM reasoning in curated evidence to reduce hallucinations and adapt to emerging scam patterns without model retraining. Experiments show that the authentication system accepts 99.5% of legitimate non-exact answers while maintaining a 0,1% false-acceptance rate, and that the RAG-enhanced fraud detection reduces false positives from 17.2% to 35%. Together, these findings demonstrate that LLMs can significantly improve both usability and robustness in security workflows, offering a more adaptive , explainable, and human-aligned approach to authentication and fraud detection.
- Abstract(参考訳): ユーザ認証と不正検出は、デジタルシステムが拡大し、敵がますます高度な戦術を採用するにつれて、ますます困難に直面している。
従来の知識に基づく認証は依然として厳格であり、人間の自然な記憶や言語的変化に対応できない正確な単語と単語の文字列の一致を必要とする。
一方、不正検出パイプラインは、急速に進化する詐欺行為とペースを維持するのに苦労し、高い偽陽性率と頻繁な再訓練サイクルが要求される。
本研究は,LLMを補完する2つのソリューション,すなわち,文書セグメンテーションによって支援された,正確な単語よりも意味的正当性を評価するLLM支援認証機構と,コサイン類似度指標を用いたLCM判定と,モデル再構成を伴わずに,幻覚を低減し,出現する詐欺パターンに適応するRAGに基づく不正検出パイプラインとを導入する。
実験の結果、認証システムは正当性のない回答の99.5%を受け付け、0,1%の偽受け入れ率を維持しており、RAGによる不正検出は偽陽性を17.2%から35%に減少させることが示された。
これらの結果は、LLMがセキュリティワークフローのユーザビリティと堅牢性の両方を大幅に改善し、認証と不正検出に対する適応性、説明性、人間対応のアプローチを提供することを示している。
関連論文リスト
- Towards Comprehensive Stage-wise Benchmarking of Large Language Models in Fact-Checking [64.97768177044355]
大規模言語モデル(LLM)は、現実のファクトチェックシステムにますます多くデプロイされている。
FactArenaは、完全に自動化されたアリーナスタイルの評価フレームワークである。
本研究では,静的クレーム検証精度とエンドツーエンドのファクトチェック能力の相違点を明らかにした。
論文 参考訳(メタデータ) (2026-01-06T02:51:56Z) - SAFE-QAQ: End-to-End Slow-Thinking Audio-Text Fraud Detection via Reinforcement Learning [52.29460857893198]
既存の不正検出方法は、書き起こされたテキストに依存しており、ASRのエラーや、声調や環境条件のような重要な音響的手がかりが欠けている。
音声に基づくスロー思考詐欺検出のためのエンドツーエンド包括的フレームワークSAFE-QAQを提案する。
本フレームワークは,ライブコール中に動的リスクアセスメントフレームワークを導入し,不正の早期検出と防止を可能にする。
論文 参考訳(メタデータ) (2026-01-04T06:09:07Z) - The Alignment Auditor: A Bayesian Framework for Verifying and Refining LLM Objectives [8.030821324147515]
逆強化学習は、行動から報酬関数を推測することができる。
既存のアプローチは、単一で自信過剰な報酬推定を生成するか、タスクの基本的な曖昧さに対処できないかのいずれかです。
本稿では,簡単な推定タスクから総合的な検証プロセスへ報酬推論を再構成する,原則的監査フレームワークを提案する。
論文 参考訳(メタデータ) (2025-10-07T16:25:14Z) - Veri-R1: Toward Precise and Faithful Claim Verification via Online Reinforcement Learning [53.05161493434908]
大規模言語モデル(LLM)によるクレーム検証は、その強力な推論能力と透過的な検証プロセスのため、近年注目を集めている。
我々は、LLMが検索エンジンと対話し、その計画、検索、推論行動を明確に形作る報酬信号を受け取ることができるオンライン強化学習フレームワークであるVeri-R1を紹介した。
実験の結果、Veri-R1は最大30%の精度で関節の精度を向上し、エビデンススコアを2倍にし、より大きなモデルを上回ることが示されている。
論文 参考訳(メタデータ) (2025-10-02T11:49:48Z) - Exploring Automatic Cryptographic API Misuse Detection in the Era of LLMs [60.32717556756674]
本稿では,暗号誤用の検出において,大規模言語モデルを評価するための体系的評価フレームワークを提案する。
11,940個のLCM生成レポートを詳細に分析したところ、LSMに固有の不安定性は、報告の半数以上が偽陽性になる可能性があることがわかった。
最適化されたアプローチは、従来の手法を超え、確立されたベンチマークでこれまで知られていなかった誤用を明らかにすることで、90%近い顕著な検出率を達成する。
論文 参考訳(メタデータ) (2024-07-23T15:31:26Z) - Synchronous Faithfulness Monitoring for Trustworthy Retrieval-Augmented Generation [96.78845113346809]
Retrieval-augmented Language Model (RALMs) は、知識集約型タスクにおいて、高い性能と幅広い適用性を示している。
本稿では,非偽文の検出に微細な復号力学を利用する軽量モニタであるSynCheckを提案する。
また、長文検索拡張生成のためのビームサーチによって導かれる忠実度指向の復号アルゴリズムであるFODを導入する。
論文 参考訳(メタデータ) (2024-06-19T16:42:57Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。