論文の概要: Spear Phishing With Large Language Models
- arxiv url: http://arxiv.org/abs/2305.06972v3
- Date: Fri, 22 Dec 2023 18:01:44 GMT
- ステータス: 処理完了
- システム内更新日: 2023-12-25 18:43:24.339548
- Title: Spear Phishing With Large Language Models
- Title(参考訳): 大規模言語モデルによるスピアフィッシング
- Authors: Julian Hazell
- Abstract要約: 本研究では,スピアフィッシングに大規模言語モデル(LLM)を用いる方法について検討した。
私はOpenAIのGPT-3.5とGPT-4モデルを使用して、600人以上の英国議会議員に対して独自のフィッシングメッセージを作成します。
私の発見は、これらのメッセージが現実的であるだけでなく、コスト効率も高いという証拠を提供しています。
- 参考スコア(独自算出の注目度): 3.2634122554914002
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Recent progress in artificial intelligence (AI), particularly in the domain
of large language models (LLMs), has resulted in powerful and versatile
dual-use systems. This intelligence can be put towards a wide variety of
beneficial tasks, yet it can also be used to cause harm. This study explores
one such harm by examining how LLMs can be used for spear phishing, a form of
cybercrime that involves manipulating targets into divulging sensitive
information. I first explore LLMs' ability to assist with the reconnaissance
and message generation stages of a spear phishing attack, where I find that
LLMs are capable of assisting with the email generation phase of a spear
phishing attack. To explore how LLMs could potentially be harnessed to scale
spear phishing campaigns, I then create unique spear phishing messages for over
600 British Members of Parliament using OpenAI's GPT-3.5 and GPT-4 models. My
findings provide some evidence that these messages are not only realistic but
also cost-effective, with each email costing only a fraction of a cent to
generate. Next, I demonstrate how basic prompt engineering can circumvent
safeguards installed in LLMs, highlighting the need for further research into
robust interventions that can help prevent models from being misused. To
further address these evolving risks, I explore two potential solutions:
structured access schemes, such as application programming interfaces, and
LLM-based defensive systems.
- Abstract(参考訳): 人工知能(AI)の最近の進歩、特に大規模言語モデル(LLM)の領域は、強力で汎用的なデュアルユースシステムを生み出している。
この知能は、様々な有益なタスクに向けられるが、害を引き起こすためにも使用できる。
本研究は,標的を操り,機密情報を漏洩させるサイバー犯罪の一種であるスピアフィッシングに対して,llmがいかに利用できるかを調べることで,そのような害を探求する。
まず,LLMが槍フィッシング攻撃の偵察およびメッセージ生成を補助する能力について検討し,その上で,槍フィッシング攻撃の電子メール生成フェーズを支援できることを見出した。
次に、OpenAIのGPT-3.5およびGPT-4モデルを使用して、600人以上の英国議会議員に対して、LLMのスピアフィッシングキャンペーンの規模を拡大する可能性を探るため、ユニークなスピアフィッシングメッセージを作成しました。
私の調査結果は、これらのメッセージが現実的なだけでなく、コスト効率も高く、それぞれのメールが生成するのにわずか1セントしかかからないことを示しています。
次に、基本的なプロンプトエンジニアリングがllmsにインストールされたセーフガードを回避し、モデルの誤用を防ぐロバストな介入に関するさらなる研究の必要性を強調する。
これらの進化するリスクにさらに対処するために、アプリケーションプログラミングインタフェースのような構造化アクセススキームとLLMベースの防御システムという2つの潜在的なソリューションを検討します。
関連論文リスト
- Next-Generation Phishing: How LLM Agents Empower Cyber Attackers [10.067883724547182]
フィッシングメールのエスカレートする脅威は、Large Language Models(LLMs)の台頭により、ますます洗練されつつある。
攻撃者はLSMを利用して、より説得力があり回避的なフィッシングメールを作成するため、現在のフィッシング防御のレジリエンスを評価することが不可欠である。
我々は、Gmail Spam Filter、Apache SpamAssassin、Proofpointなどの従来のフィッシング検出と、SVM、Logistic Regression、Naive Bayesといった機械学習モデルに関する包括的な評価を行います。
以上の結果から,全検知器にまたがるリフレッシュメールの検出精度は著しく低下し,現在のフィッシング防御における重大な弱点が浮き彫りになった。
論文 参考訳(メタデータ) (2024-11-21T06:20:29Z) - Aligning LLMs to Be Robust Against Prompt Injection [55.07562650579068]
インジェクション攻撃に対してLCMをより堅牢にするための強力なツールとしてアライメントが有効であることを示す。
私たちのメソッド -- SecAlign -- は、最初に、プロンプトインジェクション攻撃をシミュレートしてアライメントデータセットを構築します。
実験の結果,SecAlign は LLM を大幅に強化し,モデルの実用性に悪影響を及ぼすことが示された。
論文 参考訳(メタデータ) (2024-10-07T19:34:35Z) - MEGen: Generative Backdoor in Large Language Models via Model Editing [56.46183024683885]
大規模言語モデル(LLM)は目覚ましい能力を示している。
その強力な生成能力は、様々なクエリや命令に基づいて柔軟な応答を可能にする。
本稿では,最小サイドエフェクトでNLPタスクをカスタマイズしたバックドアを構築することを目的とした,MEGenという編集ベースの生成バックドアを提案する。
論文 参考訳(メタデータ) (2024-08-20T10:44:29Z) - Coercing LLMs to do and reveal (almost) anything [80.8601180293558]
大規模言語モデル(LLM)に対する敵対的攻撃は、有害なステートメントを作るためにモデルを「ジェイルブレイク」することができることが示されている。
LLMに対する敵対的攻撃のスペクトルは単なるジェイルブレイクよりもはるかに大きいと我々は主張する。
論文 参考訳(メタデータ) (2024-02-21T18:59:13Z) - Large Language Model Lateral Spear Phishing: A Comparative Study in
Large-Scale Organizational Settings [3.251318035773221]
本研究では,Large Language Models (LLMs) を用いた横型フィッシングメール作成の先駆的な研究である。
11ヶ月の期間に約9000人の個人を対象とする大規模な第1階層の大学運営を目標としている。
また、LLM生成したフィッシングを検知する電子メールフィルタリングインフラの能力も評価した。
論文 参考訳(メタデータ) (2024-01-18T05:06:39Z) - From Chatbots to PhishBots? -- Preventing Phishing scams created using
ChatGPT, Google Bard and Claude [3.7741995290294943]
本研究では,一般的な4つの大規模言語モデルを用いてフィッシング攻撃を発生させる可能性について検討する。
我々は、悪意のあるプロンプトの早期検出に使用できるBERTベースの自動検出ツールを構築した。
我々のモデルは4つの商用LCM間で転送可能であり、フィッシングサイトプロンプトの平均精度は96%、フィッシングメールプロンプトの平均精度は94%である。
論文 参考訳(メタデータ) (2023-10-29T22:52:40Z) - SmoothLLM: Defending Large Language Models Against Jailbreaking Attacks [99.23352758320945]
SmoothLLMは,大規模言語モデル(LLM)に対するジェイルブレーキング攻撃を軽減するために設計された,最初のアルゴリズムである。
敵が生成したプロンプトが文字レベルの変化に対して脆弱であることから、我々の防衛はまず、与えられた入力プロンプトの複数のコピーをランダムに摂動し、対応する予測を集約し、敵の入力を検出する。
論文 参考訳(メタデータ) (2023-10-05T17:01:53Z) - Detecting Phishing Sites Using ChatGPT [2.3999111269325266]
本稿では,大規模言語モデル(LLM)を用いてフィッシングサイトを検出するChatPhishDetectorという新しいシステムを提案する。
本システムでは,Webクローラを利用してWebサイトから情報を収集し,クローリングデータに基づいてLLMのプロンプトを生成し,LLMが生成した応答から検出結果を取得する。
GPT-4Vを用いた実験結果は、98.7%の精度と99.6%のリコールで優れた性能を示し、他のLLMや既存のシステムよりも優れていた。
論文 参考訳(メタデータ) (2023-06-09T11:30:08Z) - Not what you've signed up for: Compromising Real-World LLM-Integrated
Applications with Indirect Prompt Injection [64.67495502772866]
大規模言語モデル(LLM)は、様々なアプリケーションに統合されつつある。
本稿では、プロンプトインジェクション攻撃を用いて、攻撃者が元の命令をオーバーライドし、制御を採用する方法を示す。
我々は、コンピュータセキュリティの観点から、影響や脆弱性を体系的に調査する包括的な分類法を導出する。
論文 参考訳(メタデータ) (2023-02-23T17:14:38Z) - Exploiting Programmatic Behavior of LLMs: Dual-Use Through Standard
Security Attacks [67.86285142381644]
命令追従型大規模言語モデルの最近の進歩は、悪意のある目的のために二重使用リスクを増幅する。
命令追従機能がコンピュータセキュリティの標準的な攻撃を可能にするため、デュアルユースを防ぐのは難しい。
本研究では,LLMがヘイトスピーチや詐欺などの悪意のあるコンテンツをターゲットにすることができることを示す。
論文 参考訳(メタデータ) (2023-02-11T15:57:44Z) - Targeted Phishing Campaigns using Large Scale Language Models [0.0]
フィッシングメール(英: Phishing email)とは、個人を騙して機密情報を明らかにしたり、攻撃者に利益をもたらす行動を起こさせる不正なメッセージである。
生成したテキストの品質など,様々な基準に基づき,これらの電子メールを生成する際のNLMの性能を評価するためのフレームワークを提案する。
評価の結果,NLMは個人を騙すのが難しいフィッシングメールを生成することができるが,その有効性は特定のNLMとトレーニングデータに基づいて異なることがわかった。
論文 参考訳(メタデータ) (2022-12-30T03:18:05Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。