論文の概要: Digital Deception: Generative Artificial Intelligence in Social
Engineering and Phishing
- arxiv url: http://arxiv.org/abs/2310.13715v1
- Date: Sun, 15 Oct 2023 07:55:59 GMT
- ステータス: 処理完了
- システム内更新日: 2023-10-29 15:57:08.096858
- Title: Digital Deception: Generative Artificial Intelligence in Social
Engineering and Phishing
- Title(参考訳): Digital Deception: ソーシャルエンジニアリングとフィッシングにおける創造的人工知能
- Authors: Marc Schmitt, Ivan Flechais
- Abstract要約: 本稿では,社会工学(SE)攻撃における生成AIの変革的役割について考察する。
我々は、社会工学の理論を用いて、ジェネレーティブAIがSE攻撃の影響を増幅する3つの柱を特定する。
本研究は, この新たなパラダイムに関連するリスク, 人的影響, 対策について, より深く理解することを目的としている。
- 参考スコア(独自算出の注目度): 7.1795069620810805
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The advancement of Artificial Intelligence (AI) and Machine Learning (ML) has
profound implications for both the utility and security of our digital
interactions. This paper investigates the transformative role of Generative AI
in Social Engineering (SE) attacks. We conduct a systematic review of social
engineering and AI capabilities and use a theory of social engineering to
identify three pillars where Generative AI amplifies the impact of SE attacks:
Realistic Content Creation, Advanced Targeting and Personalization, and
Automated Attack Infrastructure. We integrate these elements into a conceptual
model designed to investigate the complex nature of AI-driven SE attacks - the
Generative AI Social Engineering Framework. We further explore human
implications and potential countermeasures to mitigate these risks. Our study
aims to foster a deeper understanding of the risks, human implications, and
countermeasures associated with this emerging paradigm, thereby contributing to
a more secure and trustworthy human-computer interaction.
- Abstract(参考訳): 人工知能(AI)と機械学習(ML)の進歩は、私たちのデジタルインタラクションの有用性とセキュリティの両方に重大な影響を与える。
本稿では,社会工学(SE)攻撃における生成AIの変革的役割について考察する。
我々は、社会工学とAI能力の体系的なレビューを行い、社会工学の理論を用いて、生成AIがSE攻撃の影響を増幅する3つの柱を識別する: 現実的コンテンツ創造、高度なターゲットとパーソナライゼーション、自動攻撃基盤。
これらの要素を、AI駆動型SE攻撃(Generative AI Social Engineering Framework)の複雑な性質を研究するために設計された概念モデルに統合する。
我々は、これらのリスクを緩和するための人間的意義と潜在的な対策をさらに探究する。
本研究は,この新たなパラダイムに関連するリスクや人的影響,対策について,より深く理解し,より安全で信頼性の高い人間とコンピュータの相互作用に寄与することを目的としている。
関連論文リスト
- The Shadow of Fraud: The Emerging Danger of AI-powered Social Engineering and its Possible Cure [30.431292911543103]
社会工学(SE)攻撃は個人と組織双方にとって重大な脅威である。
人工知能(AI)の進歩は、よりパーソナライズされ説得力のある攻撃を可能にすることによって、これらの脅威を強化する可能性がある。
本研究は、SE攻撃機構を分類し、その進化を分析し、これらの脅威を測定する方法を探る。
論文 参考訳(メタデータ) (2024-07-22T17:37:31Z) - Deception Analysis with Artificial Intelligence: An Interdisciplinary Perspective [0.9790236766474198]
私たちは、欺くAIに関するタイムリーで意味のある学際的な視点を構築します。
DAMAS - 社会認知モデル作成のための総合的多エージェントシステムフレームワークで, 詐欺の分析を行う。
本稿では,コンピュータサイエンス,哲学,心理学,倫理,インテリジェンス・アナリティクスの観点から,AIアプローチによる騙しのモデル化と説明について述べる。
論文 参考訳(メタデータ) (2024-06-09T10:31:26Z) - Advancing Social Intelligence in AI Agents: Technical Challenges and Open Questions [67.60397632819202]
ソーシャルインテリジェントAIエージェント(Social-AI)の構築は、多分野、マルチモーダルな研究目標である。
我々は、社会AIを前進させるために、基礎となる技術的課題と、コンピューティングコミュニティ全体にわたる研究者のためのオープンな質問を特定します。
論文 参考訳(メタデータ) (2024-04-17T02:57:42Z) - Position Paper: Agent AI Towards a Holistic Intelligence [53.35971598180146]
エージェントAI - 大きな基盤モデルをエージェントアクションに統合する具体的システム。
本稿では,エージェント・ファウンデーション・モデル(エージェント・ファウンデーション・モデル)を提案する。
論文 参考訳(メタデータ) (2024-02-28T16:09:56Z) - Deepfakes, Misinformation, and Disinformation in the Era of Frontier AI, Generative AI, and Large AI Models [7.835719708227145]
ディープフェイクとm/disinformationの拡散は、世界中の情報エコシステムの整合性に対する恐ろしい脅威として現れている。
我々は,大規模モデル(LM-based GenAI)をベースとした生成AIの仕組みを強調した。
我々は、高度な検出アルゴリズム、クロスプラットフォームのコラボレーション、ポリシー駆動のイニシアチブを組み合わせた統合フレームワークを導入する。
論文 参考訳(メタデータ) (2023-11-29T06:47:58Z) - Managing extreme AI risks amid rapid progress [171.05448842016125]
我々は、大規模社会被害、悪意のある使用、自律型AIシステムに対する人間の制御の不可逆的な喪失を含むリスクについて説明する。
このようなリスクがどのように発生し、どのように管理するかについては、合意の欠如があります。
現在のガバナンスイニシアチブには、誤用や無謀を防ぎ、自律システムにほとんど対処するメカニズムや制度が欠けている。
論文 参考訳(メタデータ) (2023-10-26T17:59:06Z) - Decoding the Threat Landscape : ChatGPT, FraudGPT, and WormGPT in Social Engineering Attacks [0.0]
ジェネレーティブAIモデルは、サイバー攻撃の分野に革命をもたらし、悪意あるアクターに、説得力がありパーソナライズされたフィッシングルアーを作る力を与えている。
これらのモデルであるChatGPT、FraudGPT、WormGPTは、既存の脅威を増大させ、新たなリスクの次元へと導いてきた。
これらの脅威に対処するため、従来のセキュリティ対策、AIによるセキュリティソリューション、サイバーセキュリティにおける協調的なアプローチなど、さまざまな戦略を概説する。
論文 参考訳(メタデータ) (2023-10-09T10:31:04Z) - Human-AI Coevolution [48.74579595505374]
Coevolution AIは、人間とAIアルゴリズムが相互に連続的に影響を及ぼすプロセスである。
本稿では,AIと複雑性科学の交点における新たな研究分野の基盤として,Coevolution AIを紹介した。
論文 参考訳(メタデータ) (2023-06-23T18:10:54Z) - An interdisciplinary conceptual study of Artificial Intelligence (AI)
for helping benefit-risk assessment practices: Towards a comprehensive
qualification matrix of AI programs and devices (pre-print 2020) [55.41644538483948]
本稿では,インテリジェンスの概念に対処するさまざまな分野の既存の概念を包括的に分析する。
目的は、AIシステムを評価するための共有概念や相違点を特定することである。
論文 参考訳(メタデータ) (2021-05-07T12:01:31Z) - Adversarial Interaction Attack: Fooling AI to Misinterpret Human
Intentions [46.87576410532481]
現在の大きな成功にもかかわらず、ディープラーニングベースのAIシステムは、微妙な敵対的ノイズによって容易に騙されることを示した。
骨格に基づくヒトの相互作用のケーススタディに基づき、相互作用に対する新しい敵対的攻撃を提案する。
本研究では、安全クリティカルなアプリケーションにAIシステムをデプロイする際に慎重に対処する必要があるAIと人間との相互作用ループにおける潜在的なリスクを強調します。
論文 参考訳(メタデータ) (2021-01-17T16:23:20Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。