論文の概要: Investigating the Effectiveness of Bayesian Spam Filters in Detecting LLM-modified Spam Mails
- arxiv url: http://arxiv.org/abs/2408.14293v1
- Date: Mon, 26 Aug 2024 14:25:30 GMT
- ステータス: 処理完了
- システム内更新日: 2024-08-27 13:41:26.239288
- Title: Investigating the Effectiveness of Bayesian Spam Filters in Detecting LLM-modified Spam Mails
- Title(参考訳): LLM修正スパムメールの検出におけるベイズスパムフィルタの有効性の検討
- Authors: Malte Josten, Torben Weis,
- Abstract要約: スパムとフィッシングは、サイバーセキュリティにおける重要な脅威であり、セキュリティインシデントの90%近くを担っている。
これらの攻撃が高度化するにつれて、堅牢な防御機構の必要性が増す。
ChatGPTのような大規模言語モデル(LLM)の出現は、新しい課題を提示している。
本研究は,LLM修正メールコンテンツに対するSpamAssassinの堅牢性と有効性を評価することを目的とする。
- 参考スコア(独自算出の注目度): 1.6298172960110866
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Spam and phishing remain critical threats in cybersecurity, responsible for nearly 90% of security incidents. As these attacks grow in sophistication, the need for robust defensive mechanisms intensifies. Bayesian spam filters, like the widely adopted open-source SpamAssassin, are essential tools in this fight. However, the emergence of large language models (LLMs) such as ChatGPT presents new challenges. These models are not only powerful and accessible, but also inexpensive to use, raising concerns about their misuse in crafting sophisticated spam emails that evade traditional spam filters. This work aims to evaluate the robustness and effectiveness of SpamAssassin against LLM-modified email content. We developed a pipeline to test this vulnerability. Our pipeline modifies spam emails using GPT-3.5 Turbo and assesses SpamAssassin's ability to classify these modified emails correctly. The results show that SpamAssassin misclassified up to 73.7% of LLM-modified spam emails as legitimate. In contrast, a simpler dictionary-replacement attack showed a maximum success rate of only 0.4%. These findings highlight the significant threat posed by LLM-modified spam, especially given the cost-efficiency of such attacks (0.17 cents per email). This paper provides crucial insights into the vulnerabilities of current spam filters and the need for continuous improvement in cybersecurity measures.
- Abstract(参考訳): スパムとフィッシングは、サイバーセキュリティにおける重要な脅威であり、セキュリティインシデントの90%近くを担っている。
これらの攻撃が高度化するにつれて、堅牢な防御機構の必要性が増す。
広く採用されているオープンソースのSpamAssassinのようなベイズスパムフィルターはこの戦いに欠かせないツールだ。
しかし、ChatGPTのような大規模言語モデル(LLM)の出現は、新しい課題を提示している。
これらのモデルは強力でアクセスしやすいだけでなく、安価に利用することができる。従来のスパムフィルターを避けるための高度なスパムメールを作成する際の悪用に対する懸念が高まっている。
本研究は,LLM修正メールコンテンツに対するSpamAssassinの堅牢性と有効性を評価することを目的とする。
この脆弱性をテストするパイプラインを開発しました。
我々のパイプラインは、GPT-3.5 Turboを用いてスパムメールを修正し、これらの修正メールを正しく分類するSpamAssassinの機能を評価する。
結果は、スパムアサシンがLLMに修正されたスパムメールの73.7%を正当と誤分類したことを示している。
対照的に、より単純な辞書置換攻撃では、最大成功率はわずか0.4%であった。
これらの知見は、特に攻撃の費用効率(メール1通あたり0.17セント)を考えると、LLM修正スパムによる重大な脅威を浮き彫りにしている。
本稿では,現在のスパムフィルタの脆弱性とサイバーセキュリティ対策の継続的な改善の必要性について重要な知見を提供する。
関連論文リスト
- Next-Generation Phishing: How LLM Agents Empower Cyber Attackers [10.067883724547182]
フィッシングメールのエスカレートする脅威は、Large Language Models(LLMs)の台頭により、ますます洗練されつつある。
攻撃者はLSMを利用して、より説得力があり回避的なフィッシングメールを作成するため、現在のフィッシング防御のレジリエンスを評価することが不可欠である。
我々は、Gmail Spam Filter、Apache SpamAssassin、Proofpointなどの従来のフィッシング検出と、SVM、Logistic Regression、Naive Bayesといった機械学習モデルに関する包括的な評価を行います。
以上の結果から,全検知器にまたがるリフレッシュメールの検出精度は著しく低下し,現在のフィッシング防御における重大な弱点が浮き彫りになった。
論文 参考訳(メタデータ) (2024-11-21T06:20:29Z) - ASETF: A Novel Method for Jailbreak Attack on LLMs through Translate Suffix Embeddings [58.82536530615557]
本稿では, 連続的な逆接接尾辞埋め込みを一貫性のある, 理解可能なテキストに変換するために, ASETF (Adversarial Suffix Embedding Translation Framework) を提案する。
本手法は,逆接接尾辞の計算時間を著しく短縮し,既存の手法よりもはるかに優れた攻撃成功率を実現する。
論文 参考訳(メタデータ) (2024-02-25T06:46:27Z) - PAL: Proxy-Guided Black-Box Attack on Large Language Models [55.57987172146731]
大規模言語モデル(LLM)は近年人気が高まっているが、操作時に有害なコンテンツを生成する能力を示している。
PAL(Proxy-Guided Attack on LLMs)は, ブラックボックスクエリのみの設定で, LLMに対する最初の最適化ベースの攻撃である。
GPT-3.5-Turboの攻撃成功率は84%,Llama-2-7Bの攻撃成功率は48%であった。
論文 参考訳(メタデータ) (2024-02-15T02:54:49Z) - Prompted Contextual Vectors for Spear-Phishing Detection [45.07804966535239]
スパイアフィッシング攻撃は重大なセキュリティ上の課題を示す。
本稿では,新しい文書ベクトル化手法に基づく検出手法を提案する。
提案手法は, LLM生成したスピアフィッシングメールの識別において, 91%のF1スコアを達成する。
論文 参考訳(メタデータ) (2024-02-13T09:12:55Z) - SmoothLLM: Defending Large Language Models Against Jailbreaking Attacks [99.23352758320945]
SmoothLLMは,大規模言語モデル(LLM)に対するジェイルブレーキング攻撃を軽減するために設計された,最初のアルゴリズムである。
敵が生成したプロンプトが文字レベルの変化に対して脆弱であることから、我々の防衛はまず、与えられた入力プロンプトの複数のコピーをランダムに摂動し、対応する予測を集約し、敵の入力を検出する。
論文 参考訳(メタデータ) (2023-10-05T17:01:53Z) - Application of BadNets in Spam Filters [1.5755923640031848]
我々はスパムフィルタリングの分野でバックドア攻撃を設計する。
スパムフィルタで使用されるモデルの注意深い検討と評価の必要性を強調した。
論文 参考訳(メタデータ) (2023-07-18T21:39:39Z) - Building an Effective Email Spam Classification Model with spaCy [0.0]
著者はPythonプログラミング言語のspurCy自然言語処理ライブラリと3つの機械学習(ML)アルゴリズムを使用して、Gmailサービスから収集されたスパムメールを検出する。
論文 参考訳(メタデータ) (2023-03-15T17:41:11Z) - Spam Detection Using BERT [0.0]
BERT事前学習モデルを用いてスパム検知器を構築し,そのコンテキストを理解することで電子メールやメッセージの分類を行う。
スパム検出性能は98.62%,97.83%,99.13%,99.28%であった。
論文 参考訳(メタデータ) (2022-06-06T09:09:40Z) - Deep convolutional forest: a dynamic deep ensemble approach for spam
detection in text [219.15486286590016]
本稿では,スパム検出のための動的深層アンサンブルモデルを提案する。
その結果、このモデルは高い精度、リコール、f1スコア、98.38%の精度を達成した。
論文 参考訳(メタデータ) (2021-10-10T17:19:37Z) - Phishing and Spear Phishing: examples in Cyber Espionage and techniques
to protect against them [91.3755431537592]
フィッシング攻撃は、2012年以降、サイバー攻撃の91%以上を突破し、オンライン詐欺で最も使われているテクニックとなっている。
本研究は, フィッシングとスピア・フィッシングによる攻撃が, 結果を大きくする5つのステップを通じて, フィッシングとスピア・フィッシングによる攻撃の実施方法についてレビューした。
論文 参考訳(メタデータ) (2020-05-31T18:10:09Z) - DeepQuarantine for Suspicious Mail [0.0]
DeepQuarantine(DQ)は、潜在的なスパムメッセージを検出し、隔離するクラウド技術である。
隔離されたメールのほとんどはスパムであり、クライアントは遅滞なくメールを使用できる。
論文 参考訳(メタデータ) (2020-01-13T11:32:58Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。