論文の概要: Organizational Adaptation to Generative AI in Cybersecurity: A Systematic Review
- arxiv url: http://arxiv.org/abs/2506.12060v1
- Date: Sat, 31 May 2025 18:16:11 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-06-22 23:32:14.614175
- Title: Organizational Adaptation to Generative AI in Cybersecurity: A Systematic Review
- Title(参考訳): サイバーセキュリティにおける生成AIへの組織的適応:システムレビュー
- Authors: Christopher Nott,
- Abstract要約: 本研究は、サイバーセキュリティ組織が脅威モデリングフレームワークと運用プロセスをどのように適応させ、生成的人工知能統合に対処するかを検討するために、体系的な文書分析と比較ケーススタディ手法を用いている。
この研究は、セキュリティアプリケーションのための大規模言語モデル統合、リスク検出と応答自動化のためのGenAIフレームワーク、脅威ハンティングのためのAI/ML統合の3つの主要な適応パターンを特定している。
成熟したセキュリティインフラストラクチャを持つ組織、特に金融と重要なインフラストラクチャ部門は、構造化ガバナンスアプローチ、専用のAIチーム、堅牢なインシデント対応プロセスを通じて、より高い準備性を示す。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by-sa/4.0/
- Abstract: Cybersecurity organizations are adapting to GenAI integration through modified frameworks and hybrid operational processes, with success influenced by existing security maturity, regulatory requirements, and investments in human capital and infrastructure. This qualitative research employs systematic document analysis and comparative case study methodology to examine how cybersecurity organizations adapt their threat modeling frameworks and operational processes to address generative artificial intelligence integration. Through examination of 25 studies from 2022 to 2025, the research documents substantial transformation in organizational approaches to threat modeling, moving from traditional signature-based systems toward frameworks incorporating artificial intelligence capabilities. The research identifies three primary adaptation patterns: Large Language Model integration for security applications, GenAI frameworks for risk detection and response automation, and AI/ML integration for threat hunting. Organizations with mature security infrastructures, particularly in finance and critical infrastructure sectors, demonstrate higher readiness through structured governance approaches, dedicated AI teams, and robust incident response processes. Organizations achieve successful GenAI integration when they maintain appropriate human oversight of automated systems, address data quality concerns and explainability requirements, and establish governance frameworks tailored to their specific sectors. Organizations encounter ongoing difficulties with privacy protection, bias reduction, personnel training, and defending against adversarial attacks. This work advances understanding of how organizations adopt innovative technologies in high-stakes environments and offers actionable insights for cybersecurity professionals implementing GenAI systems.
- Abstract(参考訳): サイバーセキュリティ組織は、既存のセキュリティ成熟度、規制要件、人的資本とインフラへの投資の影響を受けながら、修正されたフレームワークとハイブリッド運用プロセスを通じてGenAIの統合に適応している。
この定性的な研究は、組織的な文書分析と比較ケーススタディ手法を用いて、サイバーセキュリティ組織が脅威モデリングフレームワークと運用プロセスをどのように適応し、生成的人工知能統合に対処するかを検証している。
2022年から2025年までの25の研究では、従来のシグネチャベースのシステムから人工知能機能を組み込んだフレームワークに移行するという、脅威モデリングへの組織的アプローチの実質的な転換が文書化されている。
この研究は、セキュリティアプリケーションのための大規模言語モデル統合、リスク検出と応答自動化のためのGenAIフレームワーク、脅威狩りのためのAI/ML統合の3つの主要な適応パターンを特定している。
成熟したセキュリティインフラストラクチャを持つ組織、特に金融と重要なインフラストラクチャ部門は、構造化ガバナンスアプローチ、専用のAIチーム、堅牢なインシデント対応プロセスを通じて、より高い準備性を示す。
組織は、自動化されたシステムの適切な人的監視を維持し、データ品質の懸念と説明可能性要件に対処し、特定のセクターに適したガバナンスフレームワークを確立することで、GenAI統合を成功させる。
組織は、プライバシー保護、バイアス低減、人員訓練、敵の攻撃に対する防御など、継続的な困難に直面している。
この研究は、組織が高度な環境において革新的な技術をどのように採用するかを理解し、GenAIシステムを実装するサイバーセキュリティ専門家に実用的な洞察を提供する。
関連論文リスト
- Enterprise Architecture as a Dynamic Capability for Scalable and Sustainable Generative AI adoption: Bridging Innovation and Governance in Large Organisations [55.2480439325792]
生成人工知能(Generative Artificial Intelligence)は、イノベーションを促進し、多くの産業におけるガバナンスを再形成する可能性を持つ強力な新技術である。
しかし、テクノロジの複雑さ、ガバナンスのギャップ、リソースのミスアライメントなど、GenAIをスケールする上で大きな課題に直面している。
本稿では、大企業におけるGenAI導入の複雑な要件をエンタープライズアーキテクチャ管理が満たす方法について検討する。
論文 参考訳(メタデータ) (2025-05-09T07:41:33Z) - Threat Modeling for AI: The Case for an Asset-Centric Approach [0.23408308015481666]
AIシステムは、自律的にコードを実行し、外部システムと対話し、人間の監視なしに運用することが可能になった。
AIシステムが自律的にコードを実行し、外部システムと対話し、人間の監視なしに運用できるようになったことで、従来のセキュリティアプローチは不足する。
本稿では、脅威モデリングAIシステムのための資産中心の方法論を紹介する。
論文 参考訳(メタデータ) (2025-05-08T18:57:08Z) - Generative AI in Financial Institution: A Global Survey of Opportunities, Threats, and Regulation [3.410195565199523]
ジェネレーティブ・人工知能(GenAI)は、グローバルな金融環境を急速に変えつつある。
この調査は、金融エコシステム全体でのGenAI採用の概要を提供する。
我々は、AI生成フィッシング、ディープフェイク対応詐欺、AIシステムに対する敵攻撃など、新たな脅威について議論する。
論文 参考訳(メタデータ) (2025-04-30T12:25:30Z) - In-House Evaluation Is Not Enough: Towards Robust Third-Party Flaw Disclosure for General-Purpose AI [93.33036653316591]
我々はシステムの安全性を高めるために3つの介入を要求します。
まず、標準化されたAI欠陥レポートと研究者へのエンゲージメントのルールを用いることを提案する。
第2に,GPAIシステムプロバイダが広視野欠陥開示プログラムを採用することを提案する。
第3に,欠陥報告の分布を調整するための改良されたインフラの開発を提唱する。
論文 参考訳(メタデータ) (2025-03-21T05:09:46Z) - Integrating Cybersecurity Frameworks into IT Security: A Comprehensive Analysis of Threat Mitigation Strategies and Adaptive Technologies [0.0]
サイバーセキュリティの脅威の状況は、IT構造を保護するための健全なフレームワークの開発を、積極的に推進している。
本稿では,サイバーセキュリティの脅威の性質の変化に対処する上での,このようなフレームワークの役割に焦点をあてて,ITセキュリティへのサイバーセキュリティフレームワークの適用について論じる。
この議論は、リアルタイム脅威検出と応答メカニズムのコアとして、人工知能(AI)や機械学習(ML)といった技術も挙げている。
論文 参考訳(メタデータ) (2025-02-02T03:38:48Z) - Attack Atlas: A Practitioner's Perspective on Challenges and Pitfalls in Red Teaming GenAI [52.138044013005]
生成AI、特に大規模言語モデル(LLM)は、製品アプリケーションにますます統合される。
新たな攻撃面と脆弱性が出現し、自然言語やマルチモーダルシステムにおける敵の脅威に焦点を当てる。
レッドチーム(英語版)はこれらのシステムの弱点を積極的に識別する上で重要となり、ブルーチーム(英語版)はそのような敵の攻撃から保護する。
この研究は、生成AIシステムの保護のための学術的な洞察と実践的なセキュリティ対策のギャップを埋めることを目的としている。
論文 参考訳(メタデータ) (2024-09-23T10:18:10Z) - Integrative Approaches in Cybersecurity and AI [0.0]
組織がデータを保護し、分析し、活用する方法に革命をもたらす可能性を秘めている重要なトレンド、課題、将来の方向性を特定します。
私たちの発見は、AI駆動の自動化、リアルタイム脅威検出、高度なデータ分析を取り入れて、よりレジリエンスで適応的なセキュリティアーキテクチャを構築するための、学際的な戦略の必要性を強調しています。
論文 参考訳(メタデータ) (2024-08-12T01:37:06Z) - SecGenAI: Enhancing Security of Cloud-based Generative AI Applications within Australian Critical Technologies of National Interest [0.0]
SecGenAIはクラウドベースのGenAIアプリケーションのための包括的なセキュリティフレームワークである。
オーストラリアのプライバシ原則、AI倫理原則、オーストラリアサイバーセキュリティセンターおよびデジタルトランスフォーメーションエージェンシーのガイドラインに従っている。
論文 参考訳(メタデータ) (2024-07-01T09:19:50Z) - Trustworthy AI Inference Systems: An Industry Research View [58.000323504158054]
我々は、信頼できるAI推論システムの設計、展開、運用にアプローチするための業界調査ビューを提供する。
信頼された実行環境を用いたAIシステムの機会と課題を強調します。
我々は,産業,アカデミック,政府研究者のグローバルな集団的注意を必要とする,さらなる発展の分野を概説する。
論文 参考訳(メタデータ) (2020-08-10T23:05:55Z) - Toward Trustworthy AI Development: Mechanisms for Supporting Verifiable
Claims [59.64274607533249]
AI開発者は、責任を負うことのできる検証可能な主張をする必要がある。
このレポートは、さまざまな利害関係者がAIシステムに関するクレームの妥当性を改善するための様々なステップを示唆している。
我々は、この目的のための10のメカニズム、すなわち、組織、ソフトウェア、ハードウェアを分析し、それらのメカニズムの実装、探索、改善を目的とした推奨を行う。
論文 参考訳(メタデータ) (2020-04-15T17:15:35Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。