論文の概要: Exploring the Dark Side of AI: Advanced Phishing Attack Design and
Deployment Using ChatGPT
- arxiv url: http://arxiv.org/abs/2309.10463v1
- Date: Tue, 19 Sep 2023 09:31:39 GMT
- ステータス: 処理完了
- システム内更新日: 2023-09-20 15:12:29.188788
- Title: Exploring the Dark Side of AI: Advanced Phishing Attack Design and
Deployment Using ChatGPT
- Title(参考訳): AIのダークサイドを探る - ChatGPTによる高度なフィッシングアタック設計とデプロイ
- Authors: Nils Begou, Jeremy Vinoy, Andrzej Duda, Maciej Korczynski
- Abstract要約: フィッシング攻撃の次の部分をChatGPTに生成させる。
近年のAIの進歩は、フィッシング攻撃における不正使用の潜在的なリスクを浮き彫りにしている。
- 参考スコア(独自算出の注目度): 2.4178831487657937
- License: http://creativecommons.org/licenses/by-sa/4.0/
- Abstract: This paper explores the possibility of using ChatGPT to develop advanced
phishing attacks and automate their large-scale deployment. We make ChatGPT
generate the following parts of a phishing attack: i) cloning a targeted
website, ii) integrating code for stealing credentials, iii) obfuscating code,
iv) automating website deployment on a hosting provider, v) registering a
phishing domain name, and vi) integrating the website with a reverse proxy. The
initial assessment of the automatically generated phishing kits highlights
their rapid generation and deployment process as well as the close resemblance
of the resulting pages to the target website. More broadly, we demonstrate that
recent advances in AI underscore the potential risks of its misuse in phishing
attacks, which can lead to their increased prevalence and severity. This
highlights the necessity for enhanced countermeasures within AI systems.
- Abstract(参考訳): 本稿では,ChatGPTによる高度なフィッシング攻撃と大規模展開の自動化の可能性を検討する。
私たちはChatGPTがフィッシング攻撃の次の部分を生成するようにします。
i) ターゲットサイトをクローンすること
二 認証情報を盗むためのコードの統合
三 難読化符号、
四 ホスティングプロバイダ上でのwebサイト展開の自動化
五 フィッシングドメイン名を登録すること、及び
vi) Webサイトをリバースプロキシに統合すること。
自動生成されたフィッシングキットの初期評価は、その高速な生成とデプロイプロセスと、結果のページをターゲットのWebサイトと密接な類似性を強調している。
より広い範囲において、aiの最近の進歩は、フィッシング攻撃における誤使用の潜在的なリスクの根底にあることを実証する。
このことは、AIシステム内の強化された対策の必要性を強調している。
関連論文リスト
- Next-Generation Phishing: How LLM Agents Empower Cyber Attackers [10.067883724547182]
フィッシングメールのエスカレートする脅威は、Large Language Models(LLMs)の台頭により、ますます洗練されつつある。
攻撃者はLSMを利用して、より説得力があり回避的なフィッシングメールを作成するため、現在のフィッシング防御のレジリエンスを評価することが不可欠である。
我々は、Gmail Spam Filter、Apache SpamAssassin、Proofpointなどの従来のフィッシング検出と、SVM、Logistic Regression、Naive Bayesといった機械学習モデルに関する包括的な評価を行います。
以上の結果から,全検知器にまたがるリフレッシュメールの検出精度は著しく低下し,現在のフィッシング防御における重大な弱点が浮き彫りになった。
論文 参考訳(メタデータ) (2024-11-21T06:20:29Z) - From ML to LLM: Evaluating the Robustness of Phishing Webpage Detection Models against Adversarial Attacks [0.8050163120218178]
フィッシング攻撃は、ユーザーを騙して機密情報を盗もうとする。
現在のフィッシングWebページ検出ソリューションは、敵攻撃に対して脆弱である。
我々は,多様なフィッシング機能を正当なWebページに埋め込むことで,逆フィッシングWebページを生成するツールを開発した。
論文 参考訳(メタデータ) (2024-07-29T18:21:34Z) - Poisoned Forgery Face: Towards Backdoor Attacks on Face Forgery
Detection [62.595450266262645]
本稿では,バックドア攻撃による顔偽造検出の新たな脅威について紹介する。
バックドアをモデルに埋め込むことで、攻撃者は検知器を騙して偽造された顔の誤予測を発生させることができる。
我々は,顔偽造検知器に対するクリーンラベルバックドア攻撃を可能にするemphPoisoned Forgery Faceフレームワークを提案する。
論文 参考訳(メタデータ) (2024-02-18T06:31:05Z) - Mitigating Bias in Machine Learning Models for Phishing Webpage Detection [0.8050163120218178]
フィッシングはよく知られたサイバー攻撃であり、フィッシングウェブページの作成と対応するURLの拡散を中心に展開している。
独自の属性を蒸留し、予測モデルを構築することで、ゼロデイフィッシングURLをプリエンプティブに分類する様々な技術が利用可能である。
この提案は、フィッシング検出ソリューション内の永続的な課題、特に包括的なデータセットを組み立てる予備フェーズに集中している。
本稿では,MLモデルのバイアスを軽減するために開発されたツールの形で,潜在的な解決策を提案する。
論文 参考訳(メタデータ) (2024-01-16T13:45:54Z) - From Chatbots to PhishBots? -- Preventing Phishing scams created using
ChatGPT, Google Bard and Claude [3.7741995290294943]
本研究では,一般的な4つの大規模言語モデルを用いてフィッシング攻撃を発生させる可能性について検討する。
我々は、悪意のあるプロンプトの早期検出に使用できるBERTベースの自動検出ツールを構築した。
我々のモデルは4つの商用LCM間で転送可能であり、フィッシングサイトプロンプトの平均精度は96%、フィッシングメールプロンプトの平均精度は94%である。
論文 参考訳(メタデータ) (2023-10-29T22:52:40Z) - Generating Phishing Attacks using ChatGPT [1.392250707100996]
機能的なフィッシングサイトを生成するためにChatGPTに提供できる悪意のあるプロンプトをいくつか特定する。
これらの攻撃は、バニラChatGPTを使用して、事前の敵のエクスプロイトを必要とせずに生成できる。
論文 参考訳(メタデータ) (2023-05-09T02:38:05Z) - Not what you've signed up for: Compromising Real-World LLM-Integrated
Applications with Indirect Prompt Injection [64.67495502772866]
大規模言語モデル(LLM)は、様々なアプリケーションに統合されつつある。
本稿では、プロンプトインジェクション攻撃を用いて、攻撃者が元の命令をオーバーライドし、制御を採用する方法を示す。
我々は、コンピュータセキュリティの観点から、影響や脆弱性を体系的に調査する包括的な分類法を導出する。
論文 参考訳(メタデータ) (2023-02-23T17:14:38Z) - Fixed Points in Cyber Space: Rethinking Optimal Evasion Attacks in the
Age of AI-NIDS [70.60975663021952]
ネットワーク分類器に対するブラックボックス攻撃について検討する。
我々は、アタッカー・ディフェンダーの固定点がそれ自体、複雑な位相遷移を持つ一般サムゲームであると主張する。
攻撃防御力学の研究には連続的な学習手法が必要であることを示す。
論文 参考訳(メタデータ) (2021-11-23T23:42:16Z) - Enabling Efficient Cyber Threat Hunting With Cyber Threat Intelligence [94.94833077653998]
ThreatRaptorは、オープンソースのCyber Threat Intelligence(OSCTI)を使用して、コンピュータシステムにおける脅威追跡を容易にするシステムである。
構造化されていないOSCTIテキストから構造化された脅威行動を抽出し、簡潔で表現力豊かなドメイン固有クエリ言語TBQLを使用して悪意のあるシステムアクティビティを探索する。
広範囲にわたる攻撃事例の評価は、現実的な脅威狩りにおけるThreatRaptorの精度と効率を実証している。
論文 参考訳(メタデータ) (2020-10-26T14:54:01Z) - Online Alternate Generator against Adversarial Attacks [144.45529828523408]
ディープラーニングモデルは、実際の画像に準知覚可能なノイズを加えることによって合成される敵の例に非常に敏感である。
対象ネットワークのパラメータをアクセスしたり変更したりする必要のない,ポータブルな防御手法であるオンライン代替ジェネレータを提案する。
提案手法は,入力画像のスクラッチから別の画像をオンライン合成することで,対向雑音を除去・破壊する代わりに機能する。
論文 参考訳(メタデータ) (2020-09-17T07:11:16Z) - Phishing and Spear Phishing: examples in Cyber Espionage and techniques
to protect against them [91.3755431537592]
フィッシング攻撃は、2012年以降、サイバー攻撃の91%以上を突破し、オンライン詐欺で最も使われているテクニックとなっている。
本研究は, フィッシングとスピア・フィッシングによる攻撃が, 結果を大きくする5つのステップを通じて, フィッシングとスピア・フィッシングによる攻撃の実施方法についてレビューした。
論文 参考訳(メタデータ) (2020-05-31T18:10:09Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。