論文の概要: EXPLICATE: Enhancing Phishing Detection through Explainable AI and LLM-Powered Interpretability
- arxiv url: http://arxiv.org/abs/2503.20796v1
- Date: Sat, 22 Mar 2025 23:37:35 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-03-28 18:49:11.230113
- Title: EXPLICATE: Enhancing Phishing Detection through Explainable AI and LLM-Powered Interpretability
- Title(参考訳): ExPlicate: 説明可能なAIとLLMによる解釈によるフィッシング検出の強化
- Authors: Bryan Lim, Roman Huerta, Alejandro Sotelo, Anthonie Quintela, Priyanka Kumar,
- Abstract要約: EXPLICATEは、三成分アーキテクチャによるフィッシング検出を強化するフレームワークである。
既存のディープラーニング技術と同等ですが、説明性が向上しています。
自動AIとフィッシング検出システムにおけるユーザ信頼の重大な隔たりに対処する。
- 参考スコア(独自算出の注目度): 44.2907457629342
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Sophisticated phishing attacks have emerged as a major cybersecurity threat, becoming more common and difficult to prevent. Though machine learning techniques have shown promise in detecting phishing attacks, they function mainly as "black boxes" without revealing their decision-making rationale. This lack of transparency erodes the trust of users and diminishes their effective threat response. We present EXPLICATE: a framework that enhances phishing detection through a three-component architecture: an ML-based classifier using domain-specific features, a dual-explanation layer combining LIME and SHAP for complementary feature-level insights, and an LLM enhancement using DeepSeek v3 to translate technical explanations into accessible natural language. Our experiments show that EXPLICATE attains 98.4 % accuracy on all metrics, which is on par with existing deep learning techniques but has better explainability. High-quality explanations are generated by the framework with an accuracy of 94.2 % as well as a consistency of 96.8\% between the LLM output and model prediction. We create EXPLICATE as a fully usable GUI application and a light Chrome extension, showing its applicability in many deployment situations. The research shows that high detection performance can go hand-in-hand with meaningful explainability in security applications. Most important, it addresses the critical divide between automated AI and user trust in phishing detection systems.
- Abstract(参考訳): 高度なフィッシング攻撃がサイバーセキュリティの脅威として浮上し、より一般的になり、予防が困難になっている。
機械学習技術はフィッシング攻撃の検出において有望であるが、意思決定の根拠を明らかにすることなく、主に「ブラックボックス」として機能する。
この透明性の欠如は、ユーザの信頼を損なうと同時に、効果的な脅威応答を低下させる。
本稿では、ドメイン特化特徴を用いたMLベースの分類器、補完的な特徴レベルの洞察のためにLIMEとSHAPを組み合わせた二重説明層、DeepSeek v3を用いて技術的説明を自然言語に変換するLLM拡張という、3つのコンポーネントアーキテクチャによるフィッシング検出を強化するフレームワークについて述べる。
実験の結果,EXPLICATEはすべてのメトリクスに対して98.4パーセントの精度を達成できた。
高品質な説明は、フレームワークによって94.2 %の精度で生成され、LCM出力とモデル予測の間の一貫性は96.8 %である。
完全に利用可能なGUIアプリケーションと軽量なChromeエクステンションとしてEXPLICATEを作成し、多くのデプロイ状況でその適用性を示す。
この研究は、セキュリティアプリケーションにおいて、高い検出性能が意味のある説明可能性と密接に関連していることを示している。
最も重要なのは、自動AIとフィッシング検出システムにおけるユーザの信頼の重大な隔たりに対処することだ。
関連論文リスト
- A Gradient-Optimized TSK Fuzzy Framework for Explainable Phishing Detection [0.0]
既存のフィッシング検出手法は高い精度と説明可能性の両立に苦慮している。
勾配に基づく手法により最適化された1次高木・スゲノ・カンファジィ推論モデルに基づく新しいフィッシングURL検出システムを提案する。
論文 参考訳(メタデータ) (2025-04-25T18:31:05Z) - MOS: Towards Effective Smart Contract Vulnerability Detection through Mixture-of-Experts Tuning of Large Language Models [16.16186929130931]
スマートコントラクトの脆弱性は、ブロックチェーンシステムに重大なセキュリティリスクをもたらす。
本稿では,大規模言語モデルのミックス・オブ・エキスパート・チューニング(MOE-Tuning)に基づくスマートコントラクト脆弱性検出フレームワークを提案する。
実験の結果、MOSはF1のスコアが6.32%、精度が4.80%の平均的な改善で既存の手法よりも大幅に優れていた。
論文 参考訳(メタデータ) (2025-04-16T16:33:53Z) - Knowledge Transfer from LLMs to Provenance Analysis: A Semantic-Augmented Method for APT Detection [1.2571354974258824]
本稿では,大規模言語モデル (LLM) をプロビタンスに基づく脅威検出に活用するための新しい戦略を提案する。
LLMは、証明データの解釈、システムコールの知識、ソフトウェアアイデンティティ、アプリケーション実行コンテキストの高レベルな理解など、さらなる詳細を提供する。
本評価では,教師付き脅威検出の精度は99.0%であり,半教師付き異常検出の精度は96.9%である。
論文 参考訳(メタデータ) (2025-03-24T03:51:09Z) - Reasoning-Augmented Conversation for Multi-Turn Jailbreak Attacks on Large Language Models [53.580928907886324]
Reasoning-Augmented Conversationは、新しいマルチターンジェイルブレイクフレームワークである。
有害なクエリを良心的な推論タスクに再構成する。
RACEは,複雑な会話シナリオにおいて,最先端攻撃の有効性を実現する。
論文 参考訳(メタデータ) (2025-02-16T09:27:44Z) - Towards Copyright Protection for Knowledge Bases of Retrieval-augmented Language Models via Ownership Verification with Reasoning [58.57194301645823]
大規模言語モデル (LLM) は、検索強化生成機構 (RAG) を通じて現実のアプリケーションに統合されつつある。
これらの知識基盤を保護するための透かし技術として一般化できる既存の方法は、通常、中毒攻撃を伴う。
我々は、無害な」知識基盤の著作権保護の名称を提案する。
論文 参考訳(メタデータ) (2025-02-10T09:15:56Z) - Can LLM Prompting Serve as a Proxy for Static Analysis in Vulnerability Detection [13.403316050809151]
大規模言語モデル(LLM)は、脆弱性検出などの応用タスクにおいて限られた能力を示している。
本稿では,脆弱性の自然言語記述を,対照的な連鎖推論アプローチと統合するプロンプト戦略を提案する。
論文 参考訳(メタデータ) (2024-12-16T18:08:14Z) - Benchmarking and Defending Against Indirect Prompt Injection Attacks on Large Language Models [79.0183835295533]
我々は,このような脆弱性のリスクを評価するために,BIPIAと呼ばれる間接的インジェクション攻撃のための最初のベンチマークを導入した。
我々の分析では、LLMが情報コンテキストと動作可能な命令を区別できないことと、外部コンテンツ内での命令の実行を回避できないことの2つの主要な要因を同定した。
ブラックボックスとホワイトボックスという2つの新しい防御機構と、これらの脆弱性に対処するための明確なリマインダーを提案する。
論文 参考訳(メタデータ) (2023-12-21T01:08:39Z) - How Far Have We Gone in Vulnerability Detection Using Large Language
Models [15.09461331135668]
包括的な脆弱性ベンチマークであるVulBenchを紹介します。
このベンチマークは、幅広いCTF課題と実世界のアプリケーションから高品質なデータを集約する。
いくつかのLSMは、脆弱性検出における従来のディープラーニングアプローチよりも優れていることがわかった。
論文 参考訳(メタデータ) (2023-11-21T08:20:39Z) - Token-Level Adversarial Prompt Detection Based on Perplexity Measures
and Contextual Information [67.78183175605761]
大規模言語モデルは、敵の迅速な攻撃に影響を受けやすい。
この脆弱性は、LLMの堅牢性と信頼性に関する重要な懸念を浮き彫りにしている。
トークンレベルで敵のプロンプトを検出するための新しい手法を提案する。
論文 参考訳(メタデータ) (2023-11-20T03:17:21Z) - Baseline Defenses for Adversarial Attacks Against Aligned Language
Models [109.75753454188705]
最近の研究は、テキストのモデレーションが防御をバイパスするジェイルブレイクのプロンプトを生み出すことを示している。
検出(複雑度に基づく)、入力前処理(言い換えと再帰化)、対人訓練の3種類の防衛について検討する。
テキストに対する既存の離散化の弱点と比較的高いコストの最適化が組み合わさって、標準適応攻撃をより困難にしていることがわかった。
論文 参考訳(メタデータ) (2023-09-01T17:59:44Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。