論文の概要: AI-Driven Cybersecurity Threats: A Survey of Emerging Risks and Defensive Strategies
- arxiv url: http://arxiv.org/abs/2601.03304v1
- Date: Tue, 06 Jan 2026 05:09:40 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-08 18:12:46.041229
- Title: AI-Driven Cybersecurity Threats: A Survey of Emerging Risks and Defensive Strategies
- Title(参考訳): AI駆動型サイバーセキュリティの脅威: 新たなリスクと防御戦略の調査
- Authors: Sai Teja Erukude, Viswa Chaitanya Marella, Suhasnadh Reddy Veluru,
- Abstract要約: 本稿では,サイバーセキュリティにおけるAIに関連する新興リスク,攻撃メカニズム,防衛上の問題点を分析することを目的とする。
我々は、AI能力と脅威のモダリティと防御を結びつける比較分類法を導入する。
我々の発見は、説明可能な、学際的で、規制に順応するAI防衛システムに対する緊急性を強調した。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Artificial Intelligence's dual-use nature is revolutionizing the cybersecurity landscape, introducing new threats across four main categories: deepfakes and synthetic media, adversarial AI attacks, automated malware, and AI-powered social engineering. This paper aims to analyze emerging risks, attack mechanisms, and defense shortcomings related to AI in cybersecurity. We introduce a comparative taxonomy connecting AI capabilities with threat modalities and defenses, review over 70 academic and industry references, and identify impactful opportunities for research, such as hybrid detection pipelines and benchmarking frameworks. The paper is structured thematically by threat type, with each section addressing technical context, real-world incidents, legal frameworks, and countermeasures. Our findings emphasize the urgency for explainable, interdisciplinary, and regulatory-compliant AI defense systems to maintain trust and security in digital ecosystems.
- Abstract(参考訳): 人工知能のデュアルユースな性質は、サイバーセキュリティの世界に革命をもたらし、ディープフェイクと合成メディア、敵AI攻撃、自動化マルウェア、AIを活用したソーシャルエンジニアリングという4つの主要なカテゴリに新たな脅威をもたらしている。
本稿では,サイバーセキュリティにおけるAIに関連する新興リスク,攻撃メカニズム,防衛上の問題点を分析することを目的とする。
我々は、AI能力と脅威のモダリティと防御を結合する比較分類を導入し、70以上の学術的および産業的基準をレビューし、ハイブリッド検出パイプラインやベンチマークフレームワークのような研究のインパクトのある機会を特定します。
本論文は, 技術的文脈, 現実の出来事, 法的枠組み, 対策をテーマとして, 脅威タイプをテーマとして構成されている。
我々の発見は、デジタルエコシステムにおける信頼とセキュリティを維持するために、説明可能な、学際的で、規制に準拠するAI防衛システムに対する緊急性を強調した。
関連論文リスト
- Frontier AI Risk Management Framework in Practice: A Risk Analysis Technical Report v1.5 [61.787178868669265]
この技術レポートは、サイバー犯罪、説得と操作、戦略上の詐欺、制御されていないAIR&D、自己複製の5つの重要な側面について、更新されきめ細かな評価を提示する。
この作業は、現在のAIフロンティアのリスクに対する理解を反映し、これらの課題を軽減するための集団行動を促します。
論文 参考訳(メタデータ) (2026-02-16T04:30:06Z) - Techniques of Modern Attacks [51.56484100374058]
Advanced Persistent Threats (APT) は特定の標的を狙った複雑な攻撃方法である。
本稿では,近年の学術研究で提案されている攻撃ライフサイクルと最先端の検知・防衛戦略について検討する。
それぞれのアプローチの長所と短所を強調し、より適応的なAPT緩和戦略を提案する。
論文 参考訳(メタデータ) (2026-01-19T22:15:25Z) - ANNIE: Be Careful of Your Robots [48.89876809734855]
エンボディドAIシステムに対する敵の安全攻撃に関する最初の体系的研究について述べる。
すべての安全カテゴリーで攻撃の成功率は50%を超えている。
結果は、実証済みのAIシステムにおいて、これまで未調査だったが、非常に連続的な攻撃面を露呈する。
論文 参考訳(メタデータ) (2025-09-03T15:00:28Z) - Never Compromise to Vulnerabilities: A Comprehensive Survey on AI Governance [211.5823259429128]
本研究は,本質的セキュリティ,デリバティブ・セキュリティ,社会倫理の3つの柱を中心に構築された,技術的・社会的次元を統合した包括的枠組みを提案する。
我々は,(1)防衛が進化する脅威に対して失敗する一般化ギャップ,(2)現実世界のリスクを無視する不適切な評価プロトコル,(3)矛盾する監視につながる断片的な規制,の3つの課題を特定する。
私たちのフレームワークは、研究者、エンジニア、政策立案者に対して、堅牢でセキュアなだけでなく、倫理的に整合性があり、公的な信頼に値するAIシステムを開発するための実用的なガイダンスを提供します。
論文 参考訳(メタデータ) (2025-08-12T09:42:56Z) - Autonomous AI-based Cybersecurity Framework for Critical Infrastructure: Real-Time Threat Mitigation [1.4999444543328293]
我々は、リアルタイムの脆弱性検出、脅威モデリング、自動修復を強化するためのハイブリッドAI駆動型サイバーセキュリティフレームワークを提案する。
我々の発見は、新興のサイバー脅威に対する重要なインフラシステムのセキュリティとレジリエンスを強化するための実用的な洞察を提供する。
論文 参考訳(メタデータ) (2025-07-10T04:17:29Z) - Exposing the Impact of GenAI for Cybercrime: An Investigation into the Dark Side [1.0613539657019528]
生成型AIモデルは、安全性、倫理的リスク、デュアルユースに関する重要な議論を引き起こしている。
本稿では,悪意あるインターネット関連活動とサイバー犯罪との関連性に関する実証的証拠を提供する。
論文 参考訳(メタデータ) (2025-05-29T17:57:01Z) - Position: Mind the Gap-the Growing Disconnect Between Established Vulnerability Disclosure and AI Security [56.219994752894294]
我々は、AIセキュリティレポートに既存のプロセスを適用することは、AIシステムの特徴的な特徴に対する根本的な欠点のために失敗する運命にあると主張している。
これらの欠点に対処する私たちの提案に基づき、AIセキュリティレポートへのアプローチと、新たなAIパラダイムであるAIエージェントが、AIセキュリティインシデント報告の進展をさらに強化する方法について論じる。
論文 参考訳(メタデータ) (2024-12-19T13:50:26Z) - Considerations Influencing Offense-Defense Dynamics From Artificial Intelligence [0.0]
AIは防御能力を向上するだけでなく、悪意ある搾取と大規模な社会的危害のための道も提示する。
本稿では、AIシステムが主に脅威を生じているか、社会に保護的利益をもたらすかに影響を及ぼす主要な要因をマップし、検証するための分類法を提案する。
論文 参考訳(メタデータ) (2024-12-05T10:05:53Z) - The Shadow of Fraud: The Emerging Danger of AI-powered Social Engineering and its Possible Cure [30.431292911543103]
社会工学(SE)攻撃は個人と組織双方にとって重大な脅威である。
人工知能(AI)の進歩は、よりパーソナライズされ説得力のある攻撃を可能にすることによって、これらの脅威を強化する可能性がある。
本研究は、SE攻撃機構を分類し、その進化を分析し、これらの脅威を測定する方法を探る。
論文 参考訳(メタデータ) (2024-07-22T17:37:31Z) - Autonomous Threat Hunting: A Future Paradigm for AI-Driven Threat Intelligence [0.0]
人工知能(AI)と従来の脅威インテリジェンス方法論の融合を概観する。
従来の脅威インテリジェンスプラクティスに対するAIと機械学習の変革的な影響を検査する。
ケーススタディと評価は、AI駆動の脅威インテリジェンスを採用する組織から学んだ成功物語と教訓を強調している。
論文 参考訳(メタデータ) (2023-12-30T17:36:08Z) - Adversarial Machine Learning Attacks and Defense Methods in the Cyber
Security Domain [58.30296637276011]
本稿では,機械学習技術に基づくセキュリティソリューションに対する敵攻撃に関する最新の研究を要約する。
サイバーセキュリティドメインでエンドツーエンドの敵攻撃を実装するという、ユニークな課題を議論するのは、これが初めてである。
論文 参考訳(メタデータ) (2020-07-05T18:22:40Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。