論文の概要: AbuseGPT: Abuse of Generative AI ChatBots to Create Smishing Campaigns
- arxiv url: http://arxiv.org/abs/2402.09728v1
- Date: Thu, 15 Feb 2024 05:49:22 GMT
- ステータス: 処理完了
- システム内更新日: 2024-02-16 16:52:20.818909
- Title: AbuseGPT: Abuse of Generative AI ChatBots to Create Smishing Campaigns
- Title(参考訳): AbuseGPT:AIチャットボットを悪用してスマイッシングキャンペーンを創る
- Authors: Ashfak Md Shibli and Mir Mehedi A. Pritom and Maanak Gupta
- Abstract要約: 本稿では,既存のAIベースのチャットボットが現実世界の攻撃者によってどのように悪用され,スマイシングテキストを作成するかを示すために,AbuseGPT法を提案する。
我々は、攻撃者が既存の生成AIベースのチャットボットサービスの倫理的基準を活用できることを示す強力な実証的証拠を発見した。
また、生成AIベースのサービスの不正行為を保護するための今後の研究方針やガイドラインについても論じる。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: SMS phishing, also known as "smishing", is a growing threat that tricks users
into disclosing private information or clicking into URLs with malicious
content through fraudulent mobile text messages. In recent past, we have also
observed a rapid advancement of conversational generative AI chatbot services
(e.g., OpenAI's ChatGPT, Google's BARD), which are powered by pre-trained large
language models (LLMs). These AI chatbots certainly have a lot of utilities but
it is not systematically understood how they can play a role in creating
threats and attacks. In this paper, we propose AbuseGPT method to show how the
existing generative AI-based chatbot services can be exploited by attackers in
real world to create smishing texts and eventually lead to craftier smishing
campaigns. To the best of our knowledge, there is no pre-existing work that
evidently shows the impacts of these generative text-based models on creating
SMS phishing. Thus, we believe this study is the first of its kind to shed
light on this emerging cybersecurity threat. We have found strong empirical
evidences to show that attackers can exploit ethical standards in the existing
generative AI-based chatbot services by crafting prompt injection attacks to
create newer smishing campaigns. We also discuss some future research
directions and guidelines to protect the abuse of generative AI-based services
and safeguard users from smishing attacks.
- Abstract(参考訳): smsフィッシング(sms phishing、smishing)は、個人情報の開示や、不正なモバイルテキストメッセージによる悪意のあるコンテンツのurlのクリックを誘導する脅威である。
近年では,会話生成型AIチャットボット(OpenAIのChatGPT,GoogleのBARDなど)の急速な進歩も観察されている。
これらのAIチャットボットには、確かに多くのユーティリティがあるが、脅威や攻撃を発生させる上で、どのように役割を果たせるかを体系的に理解していない。
本稿では,既存のAIベースのチャットボットサービスが,現実の攻撃者によってどのように悪用され,スマイッシングテキストを作成し,最終的にはより巧妙なスマイッシングキャンペーンにつながるかを示すために,AbuseGPT法を提案する。
我々の知る限りでは、これらの生成テキストベースのモデルがSMSフィッシング生成に与える影響を明らかに示す、既存の研究は存在しない。
したがって、この研究は、この新たなサイバーセキュリティの脅威に光を当てた最初の研究だと考えています。
我々は、攻撃者が既存の生成AIベースのチャットボットサービスの倫理的基準を活用できることを示す強力な実証的証拠を発見した。
また、生成AIベースのサービスの悪用を防ぎ、ユーザをスマイシング攻撃から守るための今後の研究方針やガイドラインについても論じる。
関連論文リスト
- On the Feasibility of Fully AI-automated Vishing Attacks [4.266087132777785]
ヴァイシング攻撃は社会工学の一形態であり、攻撃者は個人を騙して機密情報を開示するために電話をかける。
我々は、AIの出現とともに、ヴァイシング攻撃がエスカレートする可能性について研究する。
我々は、公開AI技術を用いて開発されたAIを利用したバイシングシステムであるViKingを紹介する。
論文 参考訳(メタデータ) (2024-09-20T10:47:09Z) - Factuality Challenges in the Era of Large Language Models [113.3282633305118]
大規模言語モデル(LLM)は、誤った、誤った、あるいは誤解を招くコンテンツを生成する。
LLMは悪意のあるアプリケーションに利用することができる。
これは、ユーザーを欺く可能性があるという点で、社会に重大な課題をもたらす。
論文 参考訳(メタデータ) (2023-10-08T14:55:02Z) - BAGM: A Backdoor Attack for Manipulating Text-to-Image Generative Models [54.19289900203071]
テキストから画像への生成人工知能の普及は、大衆の関心を集めている。
ユーザを微妙に操作するコンテンツを生成するために,この技術を攻撃できることを実証する。
テキストから画像生成モデル(BAGM)に対するバックドアアタックを提案する。
我々の攻撃は、生成過程の3段階にわたる3つの一般的なテキスト・画像生成モデルをターゲットにした最初の攻撃である。
論文 参考訳(メタデータ) (2023-07-31T08:34:24Z) - Anatomy of an AI-powered malicious social botnet [6.147741269183294]
本稿では,ChatGPTを用いて人間的なコンテンツを生成するTwitterボットネットについて述べる。
1,140のアカウントを識別し,手動のアノテーションで検証する。
ChatGPTが生成したコンテンツは不審なウェブサイトを促進し、有害なコメントを広める。
論文 参考訳(メタデータ) (2023-07-30T23:06:06Z) - From ChatGPT to ThreatGPT: Impact of Generative AI in Cybersecurity and
Privacy [0.0]
この研究論文は、サイバーセキュリティとプライバシの領域におけるGenAIの限界、課題、潜在的なリスク、そして機会を強調している。
本稿では、サイバー犯罪者がGenAIツールをサイバー攻撃に利用する方法について検討する。
また、ChatGPTの社会的、法的、倫理的意味についても論じる。
論文 参考訳(メタデータ) (2023-07-03T00:36:57Z) - Chatbots to ChatGPT in a Cybersecurity Space: Evolution,
Vulnerabilities, Attacks, Challenges, and Future Recommendations [6.1194122931444035]
OpenAIはインターネット上でChatGPTのブリザードを開発し、5日以内に100万人を突破した。
人気が高まり、ChatGPTはサイバーセキュリティの脅威と脆弱性を経験した。
論文 参考訳(メタデータ) (2023-05-29T12:26:44Z) - Generating Phishing Attacks using ChatGPT [1.392250707100996]
機能的なフィッシングサイトを生成するためにChatGPTに提供できる悪意のあるプロンプトをいくつか特定する。
これらの攻撃は、バニラChatGPTを使用して、事前の敵のエクスプロイトを必要とせずに生成できる。
論文 参考訳(メタデータ) (2023-05-09T02:38:05Z) - A Complete Survey on Generative AI (AIGC): Is ChatGPT from GPT-4 to
GPT-5 All You Need? [112.12974778019304]
生成AI(AIGC、つまりAI生成コンテンツ)は、テキスト、画像、その他を分析、作成する能力により、あらゆる場所で話題を呼んだ。
純粋な分析から創造へと移行するAIの時代において、ChatGPTは最新の言語モデルであるGPT-4とともに、多くのAIGCタスクからなるツールである。
本研究は,テキスト,画像,ビデオ,3Dコンテンツなど,出力タイプに基づいたAIGCタスクの技術的開発に焦点を当てている。
論文 参考訳(メタデータ) (2023-03-21T10:09:47Z) - The Threat of Offensive AI to Organizations [52.011307264694665]
この調査は、組織に対する攻撃的なAIの脅威を調査する。
まず、AIが敵の方法、戦略、目標、および全体的な攻撃モデルをどのように変えるかについて議論する。
そして、文献レビューを通じて、敵が攻撃を強化するために使用できる33の攻撃的AI能力を特定します。
論文 参考訳(メタデータ) (2021-06-30T01:03:28Z) - Robust Text CAPTCHAs Using Adversarial Examples [129.29523847765952]
Robust Text CAPTCHA (RTC) という,ユーザフレンドリーなテキストベースのCAPTCHA生成法を提案する。
第1段階では、前景と背景はランダムにサンプルされたフォントと背景画像で構成される。
第2段階では、CAPTCHAの解法をより妨害するために、高転送可能な逆攻撃をテキストCAPTCHAに適用する。
論文 参考訳(メタデータ) (2021-01-07T11:03:07Z) - Adversarial Watermarking Transformer: Towards Tracing Text Provenance
with Data Hiding [80.3811072650087]
自然言語の透かしを防御として研究し,テキストの出所の発見と追跡に役立てる。
本稿では,適応型透かし変換器(AWT)とエンコーダ・デコーダ・デコーダを併用した対向型透かし変換器(AWT)について述べる。
AWTは、テキストにデータを隠蔽する最初のエンドツーエンドモデルである。
論文 参考訳(メタデータ) (2020-09-07T11:01:24Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。