論文の概要: On the Feasibility of Fully AI-automated Vishing Attacks
- arxiv url: http://arxiv.org/abs/2409.13793v1
- Date: Fri, 20 Sep 2024 10:47:09 GMT
- ステータス: 処理完了
- システム内更新日: 2024-11-07 05:13:17.343183
- Title: On the Feasibility of Fully AI-automated Vishing Attacks
- Title(参考訳): 完全AI自動ヴァイシング攻撃の可能性について
- Authors: João Figueiredo, Afonso Carvalho, Daniel Castro, Daniel Gonçalves, Nuno Santos,
- Abstract要約: ヴァイシング攻撃は社会工学の一形態であり、攻撃者は個人を騙して機密情報を開示するために電話をかける。
我々は、AIの出現とともに、ヴァイシング攻撃がエスカレートする可能性について研究する。
我々は、公開AI技術を用いて開発されたAIを利用したバイシングシステムであるViKingを紹介する。
- 参考スコア(独自算出の注目度): 4.266087132777785
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: A vishing attack is a form of social engineering where attackers use phone calls to deceive individuals into disclosing sensitive information, such as personal data, financial information, or security credentials. Attackers exploit the perceived urgency and authenticity of voice communication to manipulate victims, often posing as legitimate entities like banks or tech support. Vishing is a particularly serious threat as it bypasses security controls designed to protect information. In this work, we study the potential for vishing attacks to escalate with the advent of AI. In theory, AI-powered software bots may have the ability to automate these attacks by initiating conversations with potential victims via phone calls and deceiving them into disclosing sensitive information. To validate this thesis, we introduce ViKing, an AI-powered vishing system developed using publicly available AI technology. It relies on a Large Language Model (LLM) as its core cognitive processor to steer conversations with victims, complemented by a pipeline of speech-to-text and text-to-speech modules that facilitate audio-text conversion in phone calls. Through a controlled social experiment involving 240 participants, we discovered that ViKing has successfully persuaded many participants to reveal sensitive information, even those who had been explicitly warned about the risk of vishing campaigns. Interactions with ViKing's bots were generally considered realistic. From these findings, we conclude that tools like ViKing may already be accessible to potential malicious actors, while also serving as an invaluable resource for cyber awareness programs.
- Abstract(参考訳): ヴァイシング攻撃(英語: vishing attack)とは、個人を騙して個人情報、財務情報、セキュリティ情報などの機密情報を開示する、社会工学の一形態である。
攻撃者は、被害者を操作するために、声のコミュニケーションの緊急性や正確性を認識し、しばしば銀行や技術支援のような合法的な組織として振る舞う。
情報保護のために設計されたセキュリティコントロールをバイパスすることは、特に深刻な脅威だ。
本研究では,AIの出現にともなって,ヴァイシング攻撃がエスカレートする可能性について検討する。
理論的には、AIを利用したソフトウェアボットは、潜在的な犠牲者との会話を電話で開始し、機密情報を開示することで、これらの攻撃を自動化することができるかもしれない。
この論文を検証するために、公開AI技術を用いて開発されたAIを利用したバイシングシステムであるViKingを紹介する。
その中核となる認知プロセッサはLarge Language Model(LLM)で、被害者との会話をコントロールし、通話における音声テキスト変換を容易にする音声テキストと音声音声のモジュールのパイプラインを補完する。
240人の参加者によるコントロールされた社会実験を通じて、ヴァイシングキャンペーンのリスクについて明示的に警告を受けた者でさえも、ViKingが多くの参加者に機密情報を開示するよう説得することに成功していることがわかった。
ViKingのボットとのインタラクションは、一般的に現実的と考えられていた。
これらの結果から、VKingのようなツールは、潜在的な悪意のあるアクターに既にアクセス可能であり、また、サイバー認知プログラムの貴重なリソースとして機能する可能性があると結論付けている。
関連論文リスト
- Is Generative AI the Next Tactical Cyber Weapon For Threat Actors? Unforeseen Implications of AI Generated Cyber Attacks [0.0]
本稿では,AIの誤用によるエスカレート脅威,特にLarge Language Models(LLMs)の使用について述べる。
一連の制御された実験を通じて、これらのモデルがどのようにして倫理的およびプライバシー保護を回避し、効果的にサイバー攻撃を発生させるかを実証する。
私たちはまた、サイバー攻撃の自動化と実行のために特別に設計されたカスタマイズされた微調整のLLMであるOccupy AIを紹介します。
論文 参考訳(メタデータ) (2024-08-23T02:56:13Z) - AbuseGPT: Abuse of Generative AI ChatBots to Create Smishing Campaigns [0.0]
本稿では,既存のAIベースのチャットボットが現実世界の攻撃者によってどのように悪用され,スマイシングテキストを作成するかを示すために,AbuseGPT法を提案する。
我々は、攻撃者が既存の生成AIベースのチャットボットサービスの倫理的基準を活用できることを示す強力な実証的証拠を発見した。
また、生成AIベースのサービスの不正行為を保護するための今後の研究方針やガイドラインについても論じる。
論文 参考訳(メタデータ) (2024-02-15T05:49:22Z) - Decoding the Threat Landscape : ChatGPT, FraudGPT, and WormGPT in Social Engineering Attacks [0.0]
ジェネレーティブAIモデルは、サイバー攻撃の分野に革命をもたらし、悪意あるアクターに、説得力がありパーソナライズされたフィッシングルアーを作る力を与えている。
これらのモデルであるChatGPT、FraudGPT、WormGPTは、既存の脅威を増大させ、新たなリスクの次元へと導いてきた。
これらの脅威に対処するため、従来のセキュリティ対策、AIによるセキュリティソリューション、サイバーセキュリティにおける協調的なアプローチなど、さまざまな戦略を概説する。
論文 参考訳(メタデータ) (2023-10-09T10:31:04Z) - The Manipulation Problem: Conversational AI as a Threat to Epistemic
Agency [0.0]
会話型AIの技術は、過去18ヶ月で大きな進歩を遂げてきた。
会話エージェントは 近い将来 配備される可能性が高い 標的となる影響目標を 追求するように設計されている
AI操作問題(AI Manipulation Problem)と呼ばれることもあるが、消費者が捕食的AIエージェントとのリアルタイム対話を無意識に行うというリスクが表面化している。
論文 参考訳(メタデータ) (2023-06-19T04:09:16Z) - DF-Captcha: A Deepfake Captcha for Preventing Fake Calls [7.714772499501984]
社会工学(社会工学、英: Social Engineering、SE)は、データ、情報、ネットワーク、さらにはお金へのアクセスを騙すことを目的とした詐欺の一種である。
ディープフェイク技術は、電話で誰かの声をクローンしたり、ビデオ通話で顔を再現したりするために、リアルタイムで展開することができる。
組織や個人がディープフェイクSE攻撃から守る軽量なアプリケーションを提案する。
論文 参考訳(メタデータ) (2022-08-17T20:40:54Z) - Illusory Attacks: Information-Theoretic Detectability Matters in Adversarial Attacks [76.35478518372692]
エプシロン・イリューソリー(epsilon-illusory)は、シーケンシャルな意思決定者に対する敵対的攻撃の新たな形態である。
既存の攻撃と比較して,エプシロン・イリューソリーの自動検出は極めて困難である。
以上の結果から, より優れた異常検知器, 効果的なハードウェアおよびシステムレベルの防御の必要性が示唆された。
論文 参考訳(メタデータ) (2022-07-20T19:49:09Z) - Automating Privilege Escalation with Deep Reinforcement Learning [71.87228372303453]
本研究では,エージェントの訓練に深層強化学習を用いることで,悪意あるアクターの潜在的な脅威を実証する。
本稿では,最先端の強化学習アルゴリズムを用いて,局所的な特権エスカレーションを行うエージェントを提案する。
我々のエージェントは、実際の攻撃センサーデータを生成し、侵入検知システムの訓練と評価に利用できる。
論文 参考訳(メタデータ) (2021-10-04T12:20:46Z) - The Threat of Offensive AI to Organizations [52.011307264694665]
この調査は、組織に対する攻撃的なAIの脅威を調査する。
まず、AIが敵の方法、戦略、目標、および全体的な攻撃モデルをどのように変えるかについて議論する。
そして、文献レビューを通じて、敵が攻撃を強化するために使用できる33の攻撃的AI能力を特定します。
論文 参考訳(メタデータ) (2021-06-30T01:03:28Z) - The Feasibility and Inevitability of Stealth Attacks [63.14766152741211]
我々は、攻撃者が汎用人工知能システムにおける決定を制御できる新しい敵の摂動について研究する。
敵対的なデータ修正とは対照的に、ここで考慮する攻撃メカニズムには、AIシステム自体の変更が含まれる。
論文 参考訳(メタデータ) (2021-06-26T10:50:07Z) - Speaker De-identification System using Autoencoders and Adversarial
Training [58.720142291102135]
本稿では,対人訓練とオートエンコーダに基づく話者識別システムを提案する。
実験結果から, 対向学習とオートエンコーダを組み合わせることで, 話者検証システムの誤り率が同等になることがわかった。
論文 参考訳(メタデータ) (2020-11-09T19:22:05Z) - Backdoor Attack against Speaker Verification [86.43395230456339]
学習データを汚染することにより,話者検証モデルに隠れたバックドアを注入できることを示す。
また,既存のバックドア攻撃が話者認証攻撃に直接適用できないことも実証した。
論文 参考訳(メタデータ) (2020-10-22T11:10:08Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。