論文の概要: Generating Phishing Attacks using ChatGPT
- arxiv url: http://arxiv.org/abs/2305.05133v1
- Date: Tue, 9 May 2023 02:38:05 GMT
- ステータス: 処理完了
- システム内更新日: 2023-05-10 14:04:04.237008
- Title: Generating Phishing Attacks using ChatGPT
- Title(参考訳): ChatGPTによるフィッシング攻撃の生成
- Authors: Sayak Saha Roy, Krishna Vamsi Naragam, Shirin Nilizadeh
- Abstract要約: 機能的なフィッシングサイトを生成するためにChatGPTに提供できる悪意のあるプロンプトをいくつか特定する。
これらの攻撃は、バニラChatGPTを使用して、事前の敵のエクスプロイトを必要とせずに生成できる。
- 参考スコア(独自算出の注目度): 1.392250707100996
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The ability of ChatGPT to generate human-like responses and understand
context has made it a popular tool for conversational agents, content creation,
data analysis, and research and innovation. However, its effectiveness and ease
of accessibility makes it a prime target for generating malicious content, such
as phishing attacks, that can put users at risk. In this work, we identify
several malicious prompts that can be provided to ChatGPT to generate
functional phishing websites. Through an iterative approach, we find that these
phishing websites can be made to imitate popular brands and emulate several
evasive tactics that have been known to avoid detection by anti-phishing
entities. These attacks can be generated using vanilla ChatGPT without the need
of any prior adversarial exploits (jailbreaking).
- Abstract(参考訳): ChatGPTが人間のような応答を生成し、コンテキストを理解する能力は、会話エージェント、コンテンツ作成、データ分析、研究とイノベーションのための人気のあるツールとなった。
しかし、その有効性とアクセシビリティの容易さは、フィッシング攻撃のような悪意のあるコンテンツを生成するための主要なターゲットとなり、ユーザーを危険にさらす可能性がある。
本研究では,ChatGPTが機能的なフィッシングサイトを生成するための悪意のあるプロンプトをいくつか特定する。
反復的なアプローチにより、これらのフィッシングサイトは、人気のあるブランドを模倣し、反フィッシング組織による検出を避けるために知られていたいくつかの回避策をエミュレートすることができる。
これらの攻撃は、バニラChatGPTを使用して、以前の敵の攻撃(jailbreaking)を必要とせずに生成できる。
関連論文リスト
- From ML to LLM: Evaluating the Robustness of Phishing Webpage Detection Models against Adversarial Attacks [0.8050163120218178]
フィッシング攻撃は、ユーザーを騙して機密情報を盗もうとする。
現在のフィッシングWebページ検出ソリューションは、敵攻撃に対して脆弱である。
我々は,多様なフィッシング機能を正当なWebページに埋め込むことで,逆フィッシングWebページを生成するツールを開発した。
論文 参考訳(メタデータ) (2024-07-29T18:21:34Z) - Evaluating the Efficacy of Large Language Models in Identifying Phishing Attempts [2.6012482282204004]
何十年にもわたるサイバー犯罪戦術であるフィッシングは、今日のデジタル世界において大きな脅威となっている。
本稿では,15大言語モデル (LLM) がフィッシング手法の検出に有効であることを示す。
論文 参考訳(メタデータ) (2024-04-23T19:55:18Z) - AbuseGPT: Abuse of Generative AI ChatBots to Create Smishing Campaigns [0.0]
本稿では,既存のAIベースのチャットボットが現実世界の攻撃者によってどのように悪用され,スマイシングテキストを作成するかを示すために,AbuseGPT法を提案する。
我々は、攻撃者が既存の生成AIベースのチャットボットサービスの倫理的基準を活用できることを示す強力な実証的証拠を発見した。
また、生成AIベースのサービスの不正行為を保護するための今後の研究方針やガイドラインについても論じる。
論文 参考訳(メタデータ) (2024-02-15T05:49:22Z) - Exploring ChatGPT's Capabilities on Vulnerability Management [56.4403395100589]
我々は、70,346のサンプルを含む大規模なデータセットを用いて、完全な脆弱性管理プロセスを含む6つのタスクでChatGPTの機能を探求する。
注目すべき例として、ChatGPTのソフトウェアバグレポートのタイトル生成などのタスクにおける熟練度がある。
以上の結果から,ChatGPTが抱える障害が明らかとなり,将来的な方向性に光を当てた。
論文 参考訳(メタデータ) (2023-11-11T11:01:13Z) - From Chatbots to PhishBots? -- Preventing Phishing scams created using
ChatGPT, Google Bard and Claude [3.7741995290294943]
本研究では,一般的な4つの大規模言語モデルを用いてフィッシング攻撃を発生させる可能性について検討する。
我々は、悪意のあるプロンプトの早期検出に使用できるBERTベースの自動検出ツールを構築した。
我々のモデルは4つの商用LCM間で転送可能であり、フィッシングサイトプロンプトの平均精度は96%、フィッシングメールプロンプトの平均精度は94%である。
論文 参考訳(メタデータ) (2023-10-29T22:52:40Z) - Exploring the Dark Side of AI: Advanced Phishing Attack Design and
Deployment Using ChatGPT [2.4178831487657937]
フィッシング攻撃の次の部分をChatGPTに生成させる。
近年のAIの進歩は、フィッシング攻撃における不正使用の潜在的なリスクを浮き彫りにしている。
論文 参考訳(メタデータ) (2023-09-19T09:31:39Z) - Is ChatGPT Involved in Texts? Measure the Polish Ratio to Detect
ChatGPT-Generated Text [48.36706154871577]
我々はHPPT(ChatGPT-polished academic abstracts)と呼ばれる新しいデータセットを紹介する。
純粋なChatGPT生成テキストの代わりに、人書きとChatGPTポリケートされた抽象文のペアを構成することで、既存のコーパスから分岐する。
また,ChatGPTによる修正の度合いを,オリジナルの人文テキストと比較した革新的な尺度であるPolish Ratio法を提案する。
論文 参考訳(メタデータ) (2023-07-21T06:38:37Z) - ChatGPT for Us: Preserving Data Privacy in ChatGPT via Dialogue Text
Ambiguation to Expand Mental Health Care Delivery [52.73936514734762]
ChatGPTは人間のような対話を生成する能力で人気を集めている。
データに敏感なドメインは、プライバシとデータ所有に関する懸念から、ChatGPTを使用する際の課題に直面している。
ユーザのプライバシーを守るためのテキスト曖昧化フレームワークを提案する。
論文 参考訳(メタデータ) (2023-05-19T02:09:52Z) - To ChatGPT, or not to ChatGPT: That is the question! [78.407861566006]
本研究は,ChatGPT検出における最新の手法を包括的かつ現代的に評価するものである。
我々は、ChatGPTと人間からのプロンプトからなるベンチマークデータセットをキュレートし、医療、オープンQ&A、ファイナンスドメインからの多様な質問を含む。
評価の結果,既存の手法ではChatGPT生成内容を効果的に検出できないことがわかった。
論文 参考訳(メタデータ) (2023-04-04T03:04:28Z) - Backdoor Attack against Speaker Verification [86.43395230456339]
学習データを汚染することにより,話者検証モデルに隠れたバックドアを注入できることを示す。
また,既存のバックドア攻撃が話者認証攻撃に直接適用できないことも実証した。
論文 参考訳(メタデータ) (2020-10-22T11:10:08Z) - Phishing and Spear Phishing: examples in Cyber Espionage and techniques
to protect against them [91.3755431537592]
フィッシング攻撃は、2012年以降、サイバー攻撃の91%以上を突破し、オンライン詐欺で最も使われているテクニックとなっている。
本研究は, フィッシングとスピア・フィッシングによる攻撃が, 結果を大きくする5つのステップを通じて, フィッシングとスピア・フィッシングによる攻撃の実施方法についてレビューした。
論文 参考訳(メタデータ) (2020-05-31T18:10:09Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。