論文の概要: AbuseGPT: Abuse of Generative AI ChatBots to Create Smishing Campaigns
- arxiv url: http://arxiv.org/abs/2402.09728v1
- Date: Thu, 15 Feb 2024 05:49:22 GMT
- ステータス: 処理完了
- システム内更新日: 2024-02-16 16:52:20.818909
- Title: AbuseGPT: Abuse of Generative AI ChatBots to Create Smishing Campaigns
- Title(参考訳): AbuseGPT:AIチャットボットを悪用してスマイッシングキャンペーンを創る
- Authors: Ashfak Md Shibli and Mir Mehedi A. Pritom and Maanak Gupta
- Abstract要約: 本稿では,既存のAIベースのチャットボットが現実世界の攻撃者によってどのように悪用され,スマイシングテキストを作成するかを示すために,AbuseGPT法を提案する。
我々は、攻撃者が既存の生成AIベースのチャットボットサービスの倫理的基準を活用できることを示す強力な実証的証拠を発見した。
また、生成AIベースのサービスの不正行為を保護するための今後の研究方針やガイドラインについても論じる。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: SMS phishing, also known as "smishing", is a growing threat that tricks users
into disclosing private information or clicking into URLs with malicious
content through fraudulent mobile text messages. In recent past, we have also
observed a rapid advancement of conversational generative AI chatbot services
(e.g., OpenAI's ChatGPT, Google's BARD), which are powered by pre-trained large
language models (LLMs). These AI chatbots certainly have a lot of utilities but
it is not systematically understood how they can play a role in creating
threats and attacks. In this paper, we propose AbuseGPT method to show how the
existing generative AI-based chatbot services can be exploited by attackers in
real world to create smishing texts and eventually lead to craftier smishing
campaigns. To the best of our knowledge, there is no pre-existing work that
evidently shows the impacts of these generative text-based models on creating
SMS phishing. Thus, we believe this study is the first of its kind to shed
light on this emerging cybersecurity threat. We have found strong empirical
evidences to show that attackers can exploit ethical standards in the existing
generative AI-based chatbot services by crafting prompt injection attacks to
create newer smishing campaigns. We also discuss some future research
directions and guidelines to protect the abuse of generative AI-based services
and safeguard users from smishing attacks.
- Abstract(参考訳): smsフィッシング(sms phishing、smishing)は、個人情報の開示や、不正なモバイルテキストメッセージによる悪意のあるコンテンツのurlのクリックを誘導する脅威である。
近年では,会話生成型AIチャットボット(OpenAIのChatGPT,GoogleのBARDなど)の急速な進歩も観察されている。
これらのAIチャットボットには、確かに多くのユーティリティがあるが、脅威や攻撃を発生させる上で、どのように役割を果たせるかを体系的に理解していない。
本稿では,既存のAIベースのチャットボットサービスが,現実の攻撃者によってどのように悪用され,スマイッシングテキストを作成し,最終的にはより巧妙なスマイッシングキャンペーンにつながるかを示すために,AbuseGPT法を提案する。
我々の知る限りでは、これらの生成テキストベースのモデルがSMSフィッシング生成に与える影響を明らかに示す、既存の研究は存在しない。
したがって、この研究は、この新たなサイバーセキュリティの脅威に光を当てた最初の研究だと考えています。
我々は、攻撃者が既存の生成AIベースのチャットボットサービスの倫理的基準を活用できることを示す強力な実証的証拠を発見した。
また、生成AIベースのサービスの悪用を防ぎ、ユーザをスマイシング攻撃から守るための今後の研究方針やガイドラインについても論じる。
関連論文リスト
- Exploring and Mitigating Adversarial Manipulation of Voting-Based Leaderboards [93.16294577018482]
このタイプの最も人気のあるベンチマークであるArenaは、ランダムに選択された2つのモデル間のより良いレスポンスを選択するようユーザに求めることで、モデルをランク付けする。
攻撃者は、約1000票の費用で、リーダーボードを変更できる(お気に入りのモデルを宣伝したり、ライバルを降格させる)。
私たちの攻撃は2つのステップで構成されている。まず、攻撃者が95%以上の精度で特定の応答を生成するためにどのモデルを使用したかを決定する方法を示し、次に、攻撃者はこの情報を使ってターゲットモデルに対して一貫して投票することができる。
論文 参考訳(メタデータ) (2025-01-13T17:12:38Z) - On the Feasibility of Fully AI-automated Vishing Attacks [4.266087132777785]
ヴァイシング攻撃は社会工学の一形態であり、攻撃者は個人を騙して機密情報を開示するために電話をかける。
我々は、AIの出現とともに、ヴァイシング攻撃がエスカレートする可能性について研究する。
我々は、公開AI技術を用いて開発されたAIを利用したバイシングシステムであるViKingを紹介する。
論文 参考訳(メタデータ) (2024-09-20T10:47:09Z) - Factuality Challenges in the Era of Large Language Models [113.3282633305118]
大規模言語モデル(LLM)は、誤った、誤った、あるいは誤解を招くコンテンツを生成する。
LLMは悪意のあるアプリケーションに利用することができる。
これは、ユーザーを欺く可能性があるという点で、社会に重大な課題をもたらす。
論文 参考訳(メタデータ) (2023-10-08T14:55:02Z) - BAGM: A Backdoor Attack for Manipulating Text-to-Image Generative Models [54.19289900203071]
テキストから画像への生成人工知能の普及は、大衆の関心を集めている。
ユーザを微妙に操作するコンテンツを生成するために,この技術を攻撃できることを実証する。
テキストから画像生成モデル(BAGM)に対するバックドアアタックを提案する。
我々の攻撃は、生成過程の3段階にわたる3つの一般的なテキスト・画像生成モデルをターゲットにした最初の攻撃である。
論文 参考訳(メタデータ) (2023-07-31T08:34:24Z) - Anatomy of an AI-powered malicious social botnet [6.147741269183294]
本稿では,ChatGPTを用いて人間的なコンテンツを生成するTwitterボットネットについて述べる。
1,140のアカウントを識別し,手動のアノテーションで検証する。
ChatGPTが生成したコンテンツは不審なウェブサイトを促進し、有害なコメントを広める。
論文 参考訳(メタデータ) (2023-07-30T23:06:06Z) - From ChatGPT to ThreatGPT: Impact of Generative AI in Cybersecurity and
Privacy [0.0]
この研究論文は、サイバーセキュリティとプライバシの領域におけるGenAIの限界、課題、潜在的なリスク、そして機会を強調している。
本稿では、サイバー犯罪者がGenAIツールをサイバー攻撃に利用する方法について検討する。
また、ChatGPTの社会的、法的、倫理的意味についても論じる。
論文 参考訳(メタデータ) (2023-07-03T00:36:57Z) - Chatbots to ChatGPT in a Cybersecurity Space: Evolution,
Vulnerabilities, Attacks, Challenges, and Future Recommendations [6.1194122931444035]
OpenAIはインターネット上でChatGPTのブリザードを開発し、5日以内に100万人を突破した。
人気が高まり、ChatGPTはサイバーセキュリティの脅威と脆弱性を経験した。
論文 参考訳(メタデータ) (2023-05-29T12:26:44Z) - Generating Phishing Attacks using ChatGPT [1.392250707100996]
機能的なフィッシングサイトを生成するためにChatGPTに提供できる悪意のあるプロンプトをいくつか特定する。
これらの攻撃は、バニラChatGPTを使用して、事前の敵のエクスプロイトを必要とせずに生成できる。
論文 参考訳(メタデータ) (2023-05-09T02:38:05Z) - A Complete Survey on Generative AI (AIGC): Is ChatGPT from GPT-4 to
GPT-5 All You Need? [112.12974778019304]
生成AI(AIGC、つまりAI生成コンテンツ)は、テキスト、画像、その他を分析、作成する能力により、あらゆる場所で話題を呼んだ。
純粋な分析から創造へと移行するAIの時代において、ChatGPTは最新の言語モデルであるGPT-4とともに、多くのAIGCタスクからなるツールである。
本研究は,テキスト,画像,ビデオ,3Dコンテンツなど,出力タイプに基づいたAIGCタスクの技術的開発に焦点を当てている。
論文 参考訳(メタデータ) (2023-03-21T10:09:47Z) - Can AI-Generated Text be Reliably Detected? [50.95804851595018]
大規模言語モデル(LLM)は、様々なアプリケーションで非常によく機能します。
盗作、偽ニュースの発生、スパムなどの活動においてこれらのモデルが誤用される可能性があることは、彼らの責任ある使用に対する懸念を引き起こしている。
我々は、攻撃者の存在下で、これらのAIテキスト検出装置の堅牢性を強調テストする。
論文 参考訳(メタデータ) (2023-03-17T17:53:19Z) - The Threat of Offensive AI to Organizations [52.011307264694665]
この調査は、組織に対する攻撃的なAIの脅威を調査する。
まず、AIが敵の方法、戦略、目標、および全体的な攻撃モデルをどのように変えるかについて議論する。
そして、文献レビューを通じて、敵が攻撃を強化するために使用できる33の攻撃的AI能力を特定します。
論文 参考訳(メタデータ) (2021-06-30T01:03:28Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。