論文の概要: Improving Phishing Email Detection Performance of Small Large Language Models
- arxiv url: http://arxiv.org/abs/2505.00034v1
- Date: Tue, 29 Apr 2025 14:07:06 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-02 19:15:55.112769
- Title: Improving Phishing Email Detection Performance of Small Large Language Models
- Title(参考訳): 小型大言語モデルのフィッシングメール検出性能の改善
- Authors: Zijie Lin, Zikang Liu, Hanbo Fan,
- Abstract要約: 大規模言語モデル(LLM)は多くの自然言語処理(NLP)タスクにおいて顕著な性能を示した。
しかし、性能の良いLLMは典型的には数十億または数千億のパラメータを含み、膨大な計算資源を必要とする。
- 参考スコア(独自算出の注目度): 5.209583971923267
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Large language models(LLMs) have demonstrated remarkable performance on many natural language processing(NLP) tasks and have been employed in phishing email detection research. However, in current studies, well-performing LLMs typically contain billions or even tens of billions of parameters, requiring enormous computational resources. To reduce computational costs, we investigated the effectiveness of small-parameter LLMs for phishing email detection. These LLMs have around 3 billion parameters and can run on consumer-grade GPUs. However, small LLMs often perform poorly in phishing email detection task. To address these issues, we designed a set of methods including Prompt Engineering, Explanation Augmented Fine-tuning, and Model Ensemble to improve phishing email detection capabilities of small LLMs. We validated the effectiveness of our approach through experiments, significantly improving accuracy on the SpamAssassin dataset from around 0.5 for baseline models like Qwen2.5-1.5B-Instruct to 0.976.
- Abstract(参考訳): 大規模言語モデル(LLM)は多くの自然言語処理(NLP)タスクにおいて顕著な性能を示し、フィッシングメール検出研究に採用されている。
しかし、近年の研究では、高い性能のLSMは数十億または数千億のパラメータを含み、膨大な計算資源を必要とする。
計算コストを削減するため,フィッシングメール検出における小パラメータLDMの有効性を検討した。
これらのLLMは約30億のパラメータを持ち、コンシューマグレードのGPU上で動作する。
しかし、小さなLLMはフィッシングメール検出タスクではよく機能しない。
これらの問題に対処するため,小型LLMのフィッシングメール検出機能を改善するために,Prompt Engineering,Explaination Augmented Fine-tuning,Model Ensembleなどの一連の手法を設計した。
Qwen2.5-1.5B-InstructのようなベースラインモデルのSpamAssassinデータセットの精度を0.5程度から0.976まで改善し,本手法の有効性を検証した。
関連論文リスト
- Enhancing Phishing Email Identification with Large Language Models [0.40792653193642503]
フィッシングメールの検出における大規模言語モデル(LLM)の有効性について検討した。
実験により, LLMは高精度で高い精度を達成することが示された。
論文 参考訳(メタデータ) (2025-02-07T08:45:50Z) - LLM2: Let Large Language Models Harness System 2 Reasoning [65.89293674479907]
大規模言語モデル(LLM)は、無数のタスクにまたがって印象的な機能を示してきたが、時には望ましくない出力が得られる。
本稿では LLM とプロセスベースの検証器を組み合わせた新しいフレームワーク LLM2 を紹介する。
LLMs2は妥当な候補を生成するのに責任を持ち、検証者は望ましい出力と望ましくない出力を区別するためにタイムリーなプロセスベースのフィードバックを提供する。
論文 参考訳(メタデータ) (2024-12-29T06:32:36Z) - A Comprehensive Evaluation of Parameter-Efficient Fine-Tuning on Method-Level Code Smell Detection [11.9757082688031]
既存の検出手法は、コードまたは機械学習(ML)とディープラーニング(DL)技術に依存しており、しばしば不満足なパフォーマンスのような制限に直面している。
本研究では,2種類のメソッドレベルのコードの臭いを検出するために,小・大規模言語モデルを用いたPEFT手法の評価を行った。
その結果,PEFT法はGPUメモリの消費を減らしながら,フル微調整よりも同等あるいは優れた性能が得られることがわかった。
論文 参考訳(メタデータ) (2024-12-18T12:48:36Z) - Delta-CoMe: Training-Free Delta-Compression with Mixed-Precision for Large Language Models [79.46938238953916]
多様なアプリケーションへの微調整された大規模言語モデル(LLM)は、複雑な要求を満たすために不可欠である。
近年の研究では、微調整LDMをベースモデルと対応するデルタウェイトに分解し、低ランクまたは低ビットのアプローチで圧縮してコストを削減することが示唆されている。
本研究では,従来の低ランク圧縮法と低ビット圧縮法がタスク固有の微調整LDMのモデル性能を著しく損なうことを観察する。
論文 参考訳(メタデータ) (2024-06-13T07:57:27Z) - Get my drift? Catching LLM Task Drift with Activation Deltas [55.75645403965326]
タスクドリフトは攻撃者がデータを流出させたり、LLMの出力に影響を与えたりすることを可能にする。
そこで, 簡易線形分類器は, 分布外テストセット上で, ほぼ完全なLOC AUCでドリフトを検出することができることを示す。
このアプローチは、プロンプトインジェクション、ジェイルブレイク、悪意のある指示など、目に見えないタスクドメインに対して驚くほどうまく一般化する。
論文 参考訳(メタデータ) (2024-06-02T16:53:21Z) - Lateral Phishing With Large Language Models: A Large Organization Comparative Study [3.590574657417729]
大規模言語モデル(LLM)の出現は、高度にターゲットを絞った、パーソナライズされ、自動化された攻撃を発生させることで、フィッシングメールの脅威を増大させた。
LLMが生成する横型フィッシングメールの有効性を人間によるものであるものと比較する大規模な研究は乏しい。
本研究は,教育機関におけるサイバーセキュリティ脅威の理解に寄与する。
論文 参考訳(メタデータ) (2024-01-18T05:06:39Z) - Federated Full-Parameter Tuning of Billion-Sized Language Models with Communication Cost under 18 Kilobytes [53.4856038354195]
事前訓練された大規模言語モデル(LLM)は、自然言語命令に対する応答性を改善するために微調整が必要である。
FedKSeedは、ランダムシードの有限セットによるゼロ階最適化を採用している。
サーバとクライアント間の通信要求を大幅に減らし、ランダムなシードをわずかに減らします。
論文 参考訳(メタデータ) (2023-12-11T13:03:21Z) - Parameter and Computation Efficient Transfer Learning for
Vision-Language Pre-trained Models [79.34513906324727]
本稿では,視覚言語事前学習モデルのためのパラメータと効率的な伝達学習(PCETL)を提案する。
そこで本研究では,新しい動的アーキテクチャスキップ(DAS)アプローチを効果的PCETLに適用する。
論文 参考訳(メタデータ) (2023-09-04T09:34:33Z) - Exploring Parameter-Efficient Fine-Tuning Techniques for Code Generation with Large Language Models [11.845239346943067]
パラメータ効率のよい微調整(PEFT)は、大規模言語モデル(LLM)をタスク固有のデータに効率的に専門化するための有望なアプローチである。
本研究は,PEFTと量子化を組み合わせることで,より大きなLCMをチューニングし,メモリ使用量を大幅に削減する可能性を明らかにする。
論文 参考訳(メタデータ) (2023-08-21T04:31:06Z) - Detecting Phishing Sites Using ChatGPT [2.3999111269325266]
本稿では,大規模言語モデル(LLM)を用いてフィッシングサイトを検出するChatPhishDetectorという新しいシステムを提案する。
本システムでは,Webクローラを利用してWebサイトから情報を収集し,クローリングデータに基づいてLLMのプロンプトを生成し,LLMが生成した応答から検出結果を取得する。
GPT-4Vを用いた実験結果は、98.7%の精度と99.6%のリコールで優れた性能を示し、他のLLMや既存のシステムよりも優れていた。
論文 参考訳(メタデータ) (2023-06-09T11:30:08Z) - Spear Phishing With Large Language Models [3.2634122554914002]
本研究では,スピアフィッシングに大規模言語モデル(LLM)を用いる方法について検討した。
私はOpenAIのGPT-3.5とGPT-4モデルを使用して、600人以上の英国議会議員に対して独自のフィッシングメッセージを作成します。
私の発見は、これらのメッセージが現実的であるだけでなく、コスト効率も高いという証拠を提供しています。
論文 参考訳(メタデータ) (2023-05-11T16:55:19Z) - Spam-T5: Benchmarking Large Language Models for Few-Shot Email Spam
Detection [3.3504365823045044]
本稿では,メールスパム検出における大規模言語モデル(LLM)の有効性について検討する。
BERT-like、Sentence Transformers、Seq2Seqの3つの異なるモデルを比較した。
4つの公開データセットでこれらのモデルの性能を評価する。
論文 参考訳(メタデータ) (2023-04-03T10:27:53Z) - CPM-2: Large-scale Cost-effective Pre-trained Language Models [71.59893315671997]
本稿では, PLM を用いた事前学習, 微調整, 推論の効率性問題に対処するための費用対効果技術について述べる。
我々は,既存のPLMをスクラッチからトレーニングする代わりに活用することで,事前学習プロセスの促進を目的とした知識継承を導入する。
計算資源が限られている大規模PLMに対して,新しい推論ツールキット,すなわちInfMoEを実装した。
論文 参考訳(メタデータ) (2021-06-20T15:43:54Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。