論文の概要: Large Language Model Lateral Spear Phishing: A Comparative Study in
Large-Scale Organizational Settings
- arxiv url: http://arxiv.org/abs/2401.09727v1
- Date: Thu, 18 Jan 2024 05:06:39 GMT
- ステータス: 処理完了
- システム内更新日: 2024-01-19 18:00:50.037611
- Title: Large Language Model Lateral Spear Phishing: A Comparative Study in
Large-Scale Organizational Settings
- Title(参考訳): 大規模言語モデルによる側方スパイアフィッシング:大規模組織設定の比較研究
- Authors: Mazal Bethany, Athanasios Galiopoulos, Emet Bethany, Mohammad Bahrami
Karkevandi, Nishant Vishwamitra, Peyman Najafirad
- Abstract要約: 本研究では,Large Language Models (LLMs) を用いた横型フィッシングメール作成の先駆的な研究である。
11ヶ月の期間に約9000人の個人を対象とする大規模な第1階層の大学運営を目標としている。
また、LLM生成したフィッシングを検知する電子メールフィルタリングインフラの能力も評価した。
- 参考スコア(独自算出の注目度): 3.251318035773221
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The critical threat of phishing emails has been further exacerbated by the
potential of LLMs to generate highly targeted, personalized, and automated
spear phishing attacks. Two critical problems concerning LLM-facilitated
phishing require further investigation: 1) Existing studies on lateral phishing
lack specific examination of LLM integration for large-scale attacks targeting
the entire organization, and 2) Current anti-phishing infrastructure, despite
its extensive development, lacks the capability to prevent LLM-generated
attacks, potentially impacting both employees and IT security incident
management. However, the execution of such investigative studies necessitates a
real-world environment, one that functions during regular business operations
and mirrors the complexity of a large organizational infrastructure. This
setting must also offer the flexibility required to facilitate a diverse array
of experimental conditions, particularly the incorporation of phishing emails
crafted by LLMs. This study is a pioneering exploration into the use of Large
Language Models (LLMs) for the creation of targeted lateral phishing emails,
targeting a large tier 1 university's operation and workforce of approximately
9,000 individuals over an 11-month period. It also evaluates the capability of
email filtering infrastructure to detect such LLM-generated phishing attempts,
providing insights into their effectiveness and identifying potential areas for
improvement. Based on our findings, we propose machine learning-based detection
techniques for such emails to detect LLM-generated phishing emails that were
missed by the existing infrastructure, with an F1-score of 98.96.
- Abstract(参考訳): フィッシングメールの重大な脅威は、高度にターゲティングされ、パーソナライズされ、自動化されたスピアフィッシング攻撃を生成するLLMのポテンシャルによってさらに悪化した。
LLMファシリケートフィッシングに関する2つの重要な問題には、さらなる調査が必要である。
1) 組織全体を対象とした大規模攻撃に対するLCM統合の具体的な検討を欠いた側方フィッシングに関する既存研究
2) 現行のフィッシング対策インフラは, 広範な開発にもかかわらず, LLMによる攻撃を防ぐ能力に欠けており, 従業員にもITセキュリティインシデント管理にも影響を及ぼす可能性がある。
しかし、そのような調査研究の実行は、通常のビジネス運用中に機能し、大規模な組織インフラの複雑さを反映する現実世界の環境を必要とする。
この設定はまた、様々な実験条件、特にllmsによるフィッシングメールの組み込みを容易にするのに必要な柔軟性を提供する必要がある。
本研究は,11ヶ月で約9,000人の大層1大学の運営と労働力をターゲットにした大規模言語モデル(llm)による横型フィッシングメールの作成を開拓した先駆的研究である。
また、電子メールフィルタリングインフラがLCMの生成したフィッシングを検知し、その有効性や改善の潜在的な領域を識別する能力も評価した。
そこで本研究では,既存のインフラでは欠落していたllm生成フィッシングメールを,98.96のf1スコアで検出するための機械学習に基づく検出手法を提案する。
関連論文リスト
- Investigating the prompt leakage effect and black-box defenses for multi-turn LLM interactions [125.21418304558948]
大きな言語モデル(LLM)の漏洩は、セキュリティとプライバシの重大な脅威を引き起こす。
マルチターンLDM相互作用の漏洩と緩和戦略は、標準化された方法では研究されていない。
本稿では,4つの異なるドメインと10のクローズドおよびオープンソース LLM にまたがる急激なリークに対するLSM 脆弱性について検討する。
論文 参考訳(メタデータ) (2024-04-24T23:39:58Z) - Unveiling the Misuse Potential of Base Large Language Models via In-Context Learning [61.2224355547598]
大規模言語モデル(LLM)のオープンソース化は、アプリケーション開発、イノベーション、科学的進歩を加速させる。
我々の調査は、この信念に対する重大な監視を露呈している。
我々の研究は、慎重に設計されたデモを配置することにより、ベースLSMが悪意のある命令を効果的に解釈し実行できることを実証する。
論文 参考訳(メタデータ) (2024-04-16T13:22:54Z) - Detecting Scams Using Large Language Models [19.7220607313348]
大規模言語モデル(LLM)は、セキュリティなど、様々なアプリケーションで注目を集めている。
本稿では,サイバーセキュリティの重要な側面である詐欺検知におけるLCMの有用性について検討する。
フィッシング、前払い詐欺、ロマンス詐欺などの詐欺を識別するためのLLMの新しいユースケースを提案する。
論文 参考訳(メタデータ) (2024-02-05T16:13:54Z) - Silent Guardian: Protecting Text from Malicious Exploitation by Large Language Models [63.91178922306669]
大規模言語モデル(LLM)に対するテキスト保護機構であるSilent Guardianを紹介する。
保護されるテキストを慎重に修正することで、TPEはLDMを誘導して最初にエンドトークンをサンプリングし、直接相互作用を終了させることができる。
本研究では,SGがターゲットテキストを種々の構成で効果的に保護し,保護成功率の約100%を達成できることを示す。
論文 参考訳(メタデータ) (2023-12-15T10:30:36Z) - Detecting Phishing Sites Using ChatGPT [2.3999111269325266]
本稿では,大規模言語モデル(LLM)を用いてフィッシングサイトを検出するChatPhishDetectorという新しいシステムを提案する。
本システムでは,Webクローラを利用してWebサイトから情報を収集し,クローリングデータに基づいてLLMのプロンプトを生成し,LLMが生成した応答から検出結果を取得する。
GPT-4Vを用いた実験結果は、98.7%の精度と99.6%のリコールで優れた性能を示し、他のLLMや既存のシステムよりも優れていた。
論文 参考訳(メタデータ) (2023-06-09T11:30:08Z) - Red Teaming Language Model Detectors with Language Models [114.36392560711022]
大規模言語モデル(LLM)は、悪意のあるユーザによって悪用された場合、重大な安全性と倫理的リスクをもたらす。
近年,LLM生成テキストを検出し,LLMを保護するアルゴリズムが提案されている。
1) LLMの出力中の特定の単語を, 文脈が与えられたシノニムに置き換えること, 2) 生成者の書き方を変更するための指示プロンプトを自動で検索すること,である。
論文 参考訳(メタデータ) (2023-05-31T10:08:37Z) - On the Risk of Misinformation Pollution with Large Language Models [127.1107824751703]
本稿では,現代大規模言語モデル (LLM) の誤用の可能性について検討する。
本研究は, LLMが効果的な誤情報発生器として機能し, DOQAシステムの性能が著しく低下することを明らかにする。
論文 参考訳(メタデータ) (2023-05-23T04:10:26Z) - Spear Phishing With Large Language Models [3.2634122554914002]
本研究では,スピアフィッシングに大規模言語モデル(LLM)を用いる方法について検討した。
私はOpenAIのGPT-3.5とGPT-4モデルを使用して、600人以上の英国議会議員に対して独自のフィッシングメッセージを作成します。
私の発見は、これらのメッセージが現実的であるだけでなく、コスト効率も高いという証拠を提供しています。
論文 参考訳(メタデータ) (2023-05-11T16:55:19Z) - Targeted Phishing Campaigns using Large Scale Language Models [0.0]
フィッシングメール(英: Phishing email)とは、個人を騙して機密情報を明らかにしたり、攻撃者に利益をもたらす行動を起こさせる不正なメッセージである。
生成したテキストの品質など,様々な基準に基づき,これらの電子メールを生成する際のNLMの性能を評価するためのフレームワークを提案する。
評価の結果,NLMは個人を騙すのが難しいフィッシングメールを生成することができるが,その有効性は特定のNLMとトレーニングデータに基づいて異なることがわかった。
論文 参考訳(メタデータ) (2022-12-30T03:18:05Z) - Deep convolutional forest: a dynamic deep ensemble approach for spam
detection in text [219.15486286590016]
本稿では,スパム検出のための動的深層アンサンブルモデルを提案する。
その結果、このモデルは高い精度、リコール、f1スコア、98.38%の精度を達成した。
論文 参考訳(メタデータ) (2021-10-10T17:19:37Z) - Evaluation of Federated Learning in Phishing Email Detection [24.85352882358906]
本稿では、深層ニューラルネットワークモデル、特に、フィッシングメール検出のためのRNNとBERTに基づいて構築する。
FLの絡み合った学習性能を、バランスの取れたデータや非対称なデータ分布を含む様々な設定で分析する。
論文 参考訳(メタデータ) (2020-07-27T03:58:00Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。