論文の概要: What hackers talk about when they talk about AI: Early-stage diffusion of a cybercrime innovation
- arxiv url: http://arxiv.org/abs/2602.14783v1
- Date: Mon, 16 Feb 2026 14:31:33 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-17 16:22:50.465483
- Title: What hackers talk about when they talk about AI: Early-stage diffusion of a cybercrime innovation
- Title(参考訳): ハッカーがAIについて語る - サイバー犯罪のイノベーションの初期段階拡散
- Authors: Benoît Dupont, Chad Whelan, Serge-Olivier Paquette,
- Abstract要約: 人工知能(AI)の急速な拡大は、サイバー犯罪を変革する可能性を懸念している。
本稿では,サイバー脅威情報プラットフォームからのユニークなデータセットを用いて,サイバー犯罪とAIの進化的関係について検討する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: The rapid expansion of artificial intelligence (AI) is raising concerns about its potential to transform cybercrime. Beyond empowering novice offenders, AI stands to intensify the scale and sophistication of attacks by seasoned cybercriminals. This paper examines the evolving relationship between cybercriminals and AI using a unique dataset from a cyber threat intelligence platform. Analyzing more than 160 cybercrime forum conversations collected over seven months, our research reveals how cybercriminals understand AI and discuss how they can exploit its capabilities. Their exchanges reflect growing curiosity about AI's criminal applications through legal tools and dedicated criminal tools, but also doubts and anxieties about AI's effectiveness and its effects on their business models and operational security. The study documents attempts to misuse legitimate AI tools and develop bespoke models tailored for illicit purposes. Combining the diffusion of innovation framework with thematic analysis, the paper provides an in-depth view of emerging AI-enabled cybercrime and offers practical insights for law enforcement and policymakers.
- Abstract(参考訳): 人工知能(AI)の急速な拡大は、サイバー犯罪を変革する可能性を懸念している。
初級犯罪者に権限を与えるだけでなく、AIは経験豊富なサイバー犯罪者による攻撃の規模と洗練を強化する。
本稿では,サイバー脅威情報プラットフォームからのユニークなデータセットを用いて,サイバー犯罪とAIの進化的関係について検討する。
私たちの研究は、160以上のサイバー犯罪フォーラムの会話を7ヶ月以上にわたって分析し、サイバー犯罪者がAIをどのように理解しているかを明らかにし、その能力をどのように活用できるかについて議論する。
その交換は、法的ツールや専用の犯罪ツールを通じてAIの犯罪応用に関する好奇心を増すだけでなく、AIの有効性とそのビジネスモデルと運用上のセキュリティへの影響に対する疑念と不安を反映している。
この研究文書は、合法的なAIツールを誤用し、不正な目的のために調整されたベスポークモデルを開発する試みである。
この論文は、イノベーションフレームワークの拡散とテーマ分析を組み合わせることで、新たなAI対応サイバー犯罪の深い視点を提供し、法執行機関や政策立案者に対して実践的な洞察を提供する。
関連論文リスト
- Exposing the Impact of GenAI for Cybercrime: An Investigation into the Dark Side [1.0613539657019528]
生成型AIモデルは、安全性、倫理的リスク、デュアルユースに関する重要な議論を引き起こしている。
本稿では,悪意あるインターネット関連活動とサイバー犯罪との関連性に関する実証的証拠を提供する。
論文 参考訳(メタデータ) (2025-05-29T17:57:01Z) - A Survey on Offensive AI Within Cybersecurity [1.8206461789819075]
攻撃的AIに関する調査論文は、AIシステムに対する攻撃および使用に関する様々な側面を包括的にカバーする。
消費者、企業、公共のデジタルインフラストラクチャなど、さまざまな分野における攻撃的なAIプラクティスの影響を掘り下げる。
この論文では、敵対的な機械学習、AIモデルに対する攻撃、インフラストラクチャ、インターフェース、および情報収集、ソーシャルエンジニアリング、兵器化されたAIといった攻撃的テクニックについて検討する。
論文 参考訳(メタデータ) (2024-09-26T17:36:22Z) - Is Generative AI the Next Tactical Cyber Weapon For Threat Actors? Unforeseen Implications of AI Generated Cyber Attacks [0.0]
本稿では,AIの誤用によるエスカレート脅威,特にLarge Language Models(LLMs)の使用について述べる。
一連の制御された実験を通じて、これらのモデルがどのようにして倫理的およびプライバシー保護を回避し、効果的にサイバー攻撃を発生させるかを実証する。
私たちはまた、サイバー攻撃の自動化と実行のために特別に設計されたカスタマイズされた微調整のLLMであるOccupy AIを紹介します。
論文 参考訳(メタデータ) (2024-08-23T02:56:13Z) - Artificial Intelligence as the New Hacker: Developing Agents for Offensive Security [0.0]
本稿では,人工知能(AI)の攻撃的サイバーセキュリティへの統合について検討する。
サイバー攻撃をシミュレートし実行するために設計された、自律的なAIエージェントであるReaperAIを開発している。
ReaperAIは、セキュリティ脆弱性を自律的に識別し、悪用し、分析する可能性を実証する。
論文 参考訳(メタデータ) (2024-05-09T18:15:12Z) - Towards more Practical Threat Models in Artificial Intelligence Security [66.67624011455423]
最近の研究で、人工知能のセキュリティの研究と実践のギャップが特定されている。
我々は、AIセキュリティ研究で最も研究されている6つの攻撃の脅威モデルを再検討し、実際にAIの使用と一致させる。
論文 参考訳(メタデータ) (2023-11-16T16:09:44Z) - Artificial Intelligence for Cybersecurity: Threats, Attacks and
Mitigation [1.80476943513092]
サイバー攻撃の激化は、最近の人工知能の進歩から反響を呼んだ。
AIの介入は特定のタスクを自動化するだけでなく、多くの折り畳みによって効率を向上させる。
本稿では,サイバー攻撃に対する従来的およびインテリジェントな防御方法とともに,サイバーセキュリティとサイバー脅威について論じる。
論文 参考訳(メタデータ) (2022-09-27T15:20:23Z) - Proceedings of the Artificial Intelligence for Cyber Security (AICS)
Workshop at AAAI 2022 [55.573187938617636]
ワークショップは、サイバーセキュリティの問題へのAIの適用に焦点を当てる。
サイバーシステムは大量のデータを生成し、これを効果的に活用することは人間の能力を超えます。
論文 参考訳(メタデータ) (2022-02-28T18:27:41Z) - Cybertrust: From Explainable to Actionable and Interpretable AI (AI2) [58.981120701284816]
Actionable and Interpretable AI (AI2)は、AIレコメンデーションにユーザの信頼度を明確に定量化し視覚化する。
これにより、AIシステムの予測を調べてテストすることで、システムの意思決定に対する信頼の基盤を確立することができる。
論文 参考訳(メタデータ) (2022-01-26T18:53:09Z) - The Threat of Offensive AI to Organizations [52.011307264694665]
この調査は、組織に対する攻撃的なAIの脅威を調査する。
まず、AIが敵の方法、戦略、目標、および全体的な攻撃モデルをどのように変えるかについて議論する。
そして、文献レビューを通じて、敵が攻撃を強化するために使用できる33の攻撃的AI能力を特定します。
論文 参考訳(メタデータ) (2021-06-30T01:03:28Z) - Building Bridges: Generative Artworks to Explore AI Ethics [56.058588908294446]
近年,人工知能(AI)技術が社会に与える影響の理解と緩和に重点が置かれている。
倫理的AIシステムの設計における重要な課題は、AIパイプラインには複数の利害関係者があり、それぞれがそれぞれ独自の制約と関心を持っていることだ。
このポジションペーパーは、生成的アートワークが、アクセス可能で強力な教育ツールとして機能することで、この役割を果たすことができる可能性のいくつかを概説する。
論文 参考訳(メタデータ) (2021-06-25T22:31:55Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。