論文の概要: Targeted Phishing Campaigns using Large Scale Language Models
- arxiv url: http://arxiv.org/abs/2301.00665v1
- Date: Fri, 30 Dec 2022 03:18:05 GMT
- ステータス: 処理完了
- システム内更新日: 2023-01-03 14:15:52.635273
- Title: Targeted Phishing Campaigns using Large Scale Language Models
- Title(参考訳): 大規模言語モデルを用いたターゲットフィッシングキャンペーン
- Authors: Rabimba Karanjai
- Abstract要約: フィッシングメール(英: Phishing email)とは、個人を騙して機密情報を明らかにしたり、攻撃者に利益をもたらす行動を起こさせる不正なメッセージである。
生成したテキストの品質など,様々な基準に基づき,これらの電子メールを生成する際のNLMの性能を評価するためのフレームワークを提案する。
評価の結果,NLMは個人を騙すのが難しいフィッシングメールを生成することができるが,その有効性は特定のNLMとトレーニングデータに基づいて異なることがわかった。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: In this research, we aim to explore the potential of natural language models
(NLMs) such as GPT-3 and GPT-2 to generate effective phishing emails. Phishing
emails are fraudulent messages that aim to trick individuals into revealing
sensitive information or taking actions that benefit the attackers. We propose
a framework for evaluating the performance of NLMs in generating these types of
emails based on various criteria, including the quality of the generated text,
the ability to bypass spam filters, and the success rate of tricking
individuals. Our evaluations show that NLMs are capable of generating phishing
emails that are difficult to detect and that have a high success rate in
tricking individuals, but their effectiveness varies based on the specific NLM
and training data used. Our research indicates that NLMs could have a
significant impact on the prevalence of phishing attacks and emphasizes the
need for further study on the ethical and security implications of using NLMs
for malicious purposes.
- Abstract(参考訳): 本研究では, GPT-3 や GPT-2 などの自然言語モデル (NLM) が有効なフィッシングメールを生成する可能性を探究する。
フィッシングメール(英: phishing email)は、個人を騙して機密情報を暴露したり、攻撃者に利益をもたらす行動を起こそうとする詐欺メッセージである。
本研究では, テキストの品質, スパムフィルタをバイパスする能力, 個人を騙す成功率など, さまざまな基準に基づいて, メール生成におけるNLMの性能を評価する枠組みを提案する。
評価の結果、nlmは検出が難しいフィッシングメールを生成でき、個人を騙すのに成功率が高いが、その効果は特定のnlmと使用するトレーニングデータによって異なることがわかった。
本研究は,NLMがフィッシング攻撃の頻度に重大な影響を与える可能性を示唆し,悪質な目的のためにNLMを使用することによる倫理的およびセキュリティ上の影響について,さらなる研究の必要性を強調した。
関連論文リスト
- An Explainable Transformer-based Model for Phishing Email Detection: A
Large Language Model Approach [2.8282906214258805]
フィッシングメール(英: Phishing email)は、機密情報を盗んだり、金銭的損害を与える目的で偽のメールを送ることによって、ユーザーを騙そうとする深刻なサイバー脅威である。
大規模な学術研究にもかかわらず、フィッシング検出はサイバーセキュリティの分野で今も進行中で恐ろしい課題である。
フィッシングメールの検出のために最適化された微調整変換器を用いた DistilBERT モデルを提案する。
論文 参考訳(メタデータ) (2024-02-21T15:23:21Z) - Unmemorization in Large Language Models via Self-Distillation and
Deliberate Imagination [58.36408867180233]
大規模言語モデル(LLM)は、プライバシー侵害や機密データの不要な露出といった重要な問題に苦慮している。
我々は、LLMアンラーニングの文脈において、意図的な想像力という新しいアプローチを導入する。
本研究は,異なるモデルとサイズにまたがるこのアプローチの有用性を示し,パラメータ効率の良い微調整を行った。
論文 参考訳(メタデータ) (2024-02-15T16:21:14Z) - Prompted Contextual Vectors for Spear-Phishing Detection [45.07804966535239]
スパイアフィッシング攻撃は重大なセキュリティ上の課題を示す。
本稿では,新しい文書ベクトル化手法に基づく検出手法を提案する。
提案手法は, LLM生成したスピアフィッシングメールの識別において, 91%のF1スコアを達成する。
論文 参考訳(メタデータ) (2024-02-13T09:12:55Z) - Large Language Model Lateral Spear Phishing: A Comparative Study in
Large-Scale Organizational Settings [3.251318035773221]
本研究では,Large Language Models (LLMs) を用いた横型フィッシングメール作成の先駆的な研究である。
11ヶ月の期間に約9000人の個人を対象とする大規模な第1階層の大学運営を目標としている。
また、LLM生成したフィッシングを検知する電子メールフィルタリングインフラの能力も評価した。
論文 参考訳(メタデータ) (2024-01-18T05:06:39Z) - From Chatbots to PhishBots? -- Preventing Phishing scams created using
ChatGPT, Google Bard and Claude [3.7741995290294943]
本研究では,一般的な4つの大規模言語モデルを用いてフィッシング攻撃を発生させる可能性について検討する。
我々は、悪意のあるプロンプトの早期検出に使用できるBERTベースの自動検出ツールを構築した。
我々のモデルは4つの商用LCM間で転送可能であり、フィッシングサイトプロンプトの平均精度は96%、フィッシングメールプロンプトの平均精度は94%である。
論文 参考訳(メタデータ) (2023-10-29T22:52:40Z) - Setting the Trap: Capturing and Defeating Backdoors in Pretrained
Language Models through Honeypots [68.84056762301329]
近年の研究では、バックドア攻撃に対するプレトレーニング言語モデル(PLM)の感受性が明らかにされている。
バックドア情報のみを吸収するために,ハニーポットモジュールをオリジナルのPLMに統合する。
我々の設計は、PLMの低層表現が十分なバックドア特徴を持っているという観察に動機づけられている。
論文 参考訳(メタデータ) (2023-10-28T08:21:16Z) - Large Language Models Can Be Good Privacy Protection Learners [53.07930843882592]
本稿では,プライバシ保護言語モデル(PPLM)を紹介する。
本研究は, コーパスキュレーション, ペナルティに基づくトレーニング損失の相違, 命令に基づくチューニングなど, モデル設計の理論的解析を行う。
特に、肯定的な例と否定的な例の両方による命令チューニングは、モデルの知識を高めながら、個人データを効果的に保護する、有望な方法として際立っている。
論文 参考訳(メタデータ) (2023-10-03T22:37:01Z) - On Evaluating Adversarial Robustness of Large Vision-Language Models [64.66104342002882]
大規模視覚言語モデル(VLM)のロバスト性を,最も現実的で高リスクな環境で評価する。
特に,CLIP や BLIP などの事前学習モデルに対して,まず攻撃対象のサンプルを作成する。
これらのVLM上のブラックボックスクエリは、ターゲットの回避の効果をさらに向上させることができる。
論文 参考訳(メタデータ) (2023-05-26T13:49:44Z) - Spear Phishing With Large Language Models [3.2634122554914002]
本研究では,スピアフィッシングに大規模言語モデル(LLM)を用いる方法について検討した。
私はOpenAIのGPT-3.5とGPT-4モデルを使用して、600人以上の英国議会議員に対して独自のフィッシングメッセージを作成します。
私の発見は、これらのメッセージが現実的であるだけでなく、コスト効率も高いという証拠を提供しています。
論文 参考訳(メタデータ) (2023-05-11T16:55:19Z) - SoK: Human-Centered Phishing Susceptibility [4.794822439017277]
フィッシングの検出と防止に人間がどう関わっているかを説明する3段階のフィッシング・サセプティビリティ・モデル(PSM)を提案する。
このモデルは、ユーザの検出性能を改善するために対処する必要があるいくつかの研究ギャップを明らかにする。
論文 参考訳(メタデータ) (2022-02-16T07:26:53Z) - Deep convolutional forest: a dynamic deep ensemble approach for spam
detection in text [219.15486286590016]
本稿では,スパム検出のための動的深層アンサンブルモデルを提案する。
その結果、このモデルは高い精度、リコール、f1スコア、98.38%の精度を達成した。
論文 参考訳(メタデータ) (2021-10-10T17:19:37Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。