論文の概要: An Investigation of Large Language Models and Their Vulnerabilities in Spam Detection
- arxiv url: http://arxiv.org/abs/2504.09776v1
- Date: Mon, 14 Apr 2025 00:30:27 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-04-15 16:48:27.647410
- Title: An Investigation of Large Language Models and Their Vulnerabilities in Spam Detection
- Title(参考訳): スパム検出における大規模言語モデルとその脆弱性の検討
- Authors: Qiyao Tang, Xiangyang Li,
- Abstract要約: 本稿では,スパムデータセットを微調整したLarge Language Models(LLM)を利用したスパム検出システムを提案する。
この実験には、GPT2とBERTの2つのLLMモデルと、Enron、LingSpam、SMSspamCollectionの3つのスパムデータセットが使用されている。
その結果, LLMモデルは, 効果的なスパムフィルタとして機能するが, 敵対的・データ中毒攻撃の影響を受けやすいことがわかった。
- 参考スコア(独自算出の注目度): 7.550686419077825
- License:
- Abstract: Spam messages continue to present significant challenges to digital users, cluttering inboxes and posing security risks. Traditional spam detection methods, including rules-based, collaborative, and machine learning approaches, struggle to keep up with the rapidly evolving tactics employed by spammers. This project studies new spam detection systems that leverage Large Language Models (LLMs) fine-tuned with spam datasets. More importantly, we want to understand how LLM-based spam detection systems perform under adversarial attacks that purposefully modify spam emails and data poisoning attacks that exploit the differences between the training data and the massages in detection, to which traditional machine learning models are shown to be vulnerable. This experimentation employs two LLM models of GPT2 and BERT and three spam datasets of Enron, LingSpam, and SMSspamCollection for extensive training and testing tasks. The results show that, while they can function as effective spam filters, the LLM models are susceptible to the adversarial and data poisoning attacks. This research provides very useful insights for future applications of LLM models for information security.
- Abstract(参考訳): スパムメッセージは、デジタルユーザーにとって大きな課題を呈し続け、受信箱を散らかし、セキュリティリスクを訴えている。
ルールベース、コラボレーティブ、および機械学習アプローチを含む従来のスパム検出方法は、スパマーによって急速に進化する戦術に追従するのに苦労する。
本稿では,スパムデータセットを微調整したLarge Language Models(LLM)を利用したスパム検出システムを提案する。
さらに重要なのは、LLMベースのスパム検出システムが、従来の機械学習モデルが脆弱であることを示すトレーニングデータと検出中のマッサージの違いを生かしたスパムメールやデータ中毒攻撃を意図的に修正する敵攻撃の下でどのように機能するかを理解したいということです。
この実験では、広範囲なトレーニングとテストのために、GPT2とBERTの2つのLLMモデルと、Enron、LingSpam、SMSspamCollectionの3つのスパムデータセットを使用している。
その結果, LLMモデルは, 効果的なスパムフィルタとして機能するが, 敵対的・データ中毒攻撃の影響を受けやすいことがわかった。
本研究は,LLMモデルの今後の情報セキュリティへの応用に非常に有用な知見を提供する。
関連論文リスト
- SpaLLM-Guard: Pairing SMS Spam Detection Using Open-source and Commercial LLMs [1.3198171962008958]
我々は,SMSスパム検出における大規模言語モデル (LLM) の可能性を評価する。
ゼロショット、少数ショット、微調整、チェーン・オブ・プルーピングのアプローチでパフォーマンスを比較します。
ファインチューニングは最も効果的な戦略として現れ、Mixtralの精度は98.6%、偽陽性と偽陰性率は2%以下である。
論文 参考訳(メタデータ) (2025-01-09T06:00:08Z) - Next-Generation Phishing: How LLM Agents Empower Cyber Attackers [10.067883724547182]
フィッシングメールのエスカレートする脅威は、Large Language Models(LLMs)の台頭により、ますます洗練されつつある。
攻撃者はLSMを利用して、より説得力があり回避的なフィッシングメールを作成するため、現在のフィッシング防御のレジリエンスを評価することが不可欠である。
我々は、Gmail Spam Filter、Apache SpamAssassin、Proofpointなどの従来のフィッシング検出と、SVM、Logistic Regression、Naive Bayesといった機械学習モデルに関する包括的な評価を行います。
以上の結果から,全検知器にまたがるリフレッシュメールの検出精度は著しく低下し,現在のフィッシング防御における重大な弱点が浮き彫りになった。
論文 参考訳(メタデータ) (2024-11-21T06:20:29Z) - Attention Tracker: Detecting Prompt Injection Attacks in LLMs [62.247841717696765]
大型言語モデル (LLM) は様々なドメインに革命をもたらしたが、インジェクション攻撃に弱いままである。
そこで本研究では,特定の注意点が本来の指示から注入指示へと焦点を移す,注意散逸効果の概念を紹介した。
本研究では,アテンション・トラッカーを提案する。アテンション・トラッカーは,インジェクション・アタックを検出するために,インストラクション上の注意パターンを追跡する訓練不要な検出手法である。
論文 参考訳(メタデータ) (2024-11-01T04:05:59Z) - Beyond Binary: Towards Fine-Grained LLM-Generated Text Detection via Role Recognition and Involvement Measurement [51.601916604301685]
大規模言語モデル(LLM)は、オンライン談話における信頼を損なう可能性のあるコンテンツを生成する。
現在の手法はバイナリ分類に重点を置いており、人間とLLMのコラボレーションのような現実のシナリオの複雑さに対処できないことが多い。
バイナリ分類を超えてこれらの課題に対処するために,LLM生成コンテンツを検出するための新しいパラダイムを提案する。
論文 参考訳(メタデータ) (2024-10-18T08:14:10Z) - Evaluating LLM-based Personal Information Extraction and Countermeasures [63.91918057570824]
大規模言語モデル(LLM)に基づく個人情報抽出をベンチマークすることができる。
LLMは攻撃者によって誤用され、個人プロファイルから様々な個人情報を正確に抽出する。
プロンプトインジェクションは強力なLDMベースの攻撃に対して防御し、攻撃をより効果的でない従来の攻撃に還元する。
論文 参考訳(メタデータ) (2024-08-14T04:49:30Z) - SpamDam: Towards Privacy-Preserving and Adversary-Resistant SMS Spam Detection [2.0355793807035094]
SpamDamはSMSスパムの検出と理解において重要な課題を克服するために設計されたSMSスパム検出フレームワークである。
われわれは2018年から2023年にかけて、TwitterとWeiboから76万件以上のSMSスパムメッセージを収集した。
我々は、SMSスパム検出モデルの対角的堅牢性を厳格に検証し、新しいリバースバックドア攻撃を導入した。
論文 参考訳(メタデータ) (2024-04-15T06:07:10Z) - LM-Polygraph: Uncertainty Estimation for Language Models [71.21409522341482]
不確実性推定(UE)手法は、大規模言語モデル(LLM)の安全性、責任性、効果的な利用のための1つの経路である。
テキスト生成タスクにおけるLLMの最先端UEメソッドのバッテリを実装したフレームワークであるLM-PolygraphをPythonで統一したプログラムインタフェースで導入する。
研究者によるUEテクニックの一貫した評価のための拡張可能なベンチマークと、信頼スコア付き標準チャットダイアログを強化するデモWebアプリケーションを導入している。
論文 参考訳(メタデータ) (2023-11-13T15:08:59Z) - An Improved Transformer-based Model for Detecting Phishing, Spam, and
Ham: A Large Language Model Approach [0.0]
本稿では,BERTファミリを微調整し,フィッシングやスパムメールを特に検出するIPSDMを提案する。
当社の微調整バージョンであるIPSDMは、バランスの取れていないデータセットとバランスの取れていないデータセットの両方で、メールをよりよく分類することができます。
論文 参考訳(メタデータ) (2023-11-01T18:41:50Z) - A Survey on Detection of LLMs-Generated Content [97.87912800179531]
LLMの生成する内容を検出する能力が最重要視されている。
既存の検出戦略とベンチマークの詳細な概要を提供する。
また、様々な攻撃から守るための多面的アプローチの必要性を示唆する。
論文 参考訳(メタデータ) (2023-10-24T09:10:26Z) - Spam-T5: Benchmarking Large Language Models for Few-Shot Email Spam
Detection [3.3504365823045044]
本稿では,メールスパム検出における大規模言語モデル(LLM)の有効性について検討する。
BERT-like、Sentence Transformers、Seq2Seqの3つの異なるモデルを比較した。
4つの公開データセットでこれらのモデルの性能を評価する。
論文 参考訳(メタデータ) (2023-04-03T10:27:53Z) - Deep convolutional forest: a dynamic deep ensemble approach for spam
detection in text [219.15486286590016]
本稿では,スパム検出のための動的深層アンサンブルモデルを提案する。
その結果、このモデルは高い精度、リコール、f1スコア、98.38%の精度を達成した。
論文 参考訳(メタデータ) (2021-10-10T17:19:37Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。