論文の概要: Enhancing Security Control Production With Generative AI
- arxiv url: http://arxiv.org/abs/2411.04284v1
- Date: Wed, 06 Nov 2024 22:10:18 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-11-08 19:39:12.644330
- Title: Enhancing Security Control Production With Generative AI
- Title(参考訳): ジェネレーティブAIによるセキュリティコントロール生産の強化
- Authors: Chen Ling, Mina Ghashami, Vianne Gao, Ali Torkamani, Ruslan Vaulin, Nivedita Mangam, Bhavya Jain, Farhan Diwan, Malini SS, Mingrui Cheng, Shreya Tarur Kumar, Felix Candelario,
- Abstract要約: セキュリティコントロールは、リスクの低減、情報保護、セキュリティ規制の遵守を保証するために、クラウドベースのサービス用に設計されたメカニズムまたはポリシーである。
本稿では,ジェネレーティブAIを用いたセキュリティ制御の高速化について検討する。
大規模言語モデルとコンテキスト内学習を活用して,セキュリティコントロールの開発に要する時間を2~3日から1分未満に短縮する構造化フレームワークを提案する。
- 参考スコア(独自算出の注目度): 2.869818284825133
- License:
- Abstract: Security controls are mechanisms or policies designed for cloud based services to reduce risk, protect information, and ensure compliance with security regulations. The development of security controls is traditionally a labor-intensive and time-consuming process. This paper explores the use of Generative AI to accelerate the generation of security controls. We specifically focus on generating Gherkin codes which are the domain-specific language used to define the behavior of security controls in a structured and understandable format. By leveraging large language models and in-context learning, we propose a structured framework that reduces the time required for developing security controls from 2-3 days to less than one minute. Our approach integrates detailed task descriptions, step-by-step instructions, and retrieval-augmented generation to enhance the accuracy and efficiency of the generated Gherkin code. Initial evaluations on AWS cloud services demonstrate promising results, indicating that GenAI can effectively streamline the security control development process, thus providing a robust and dynamic safeguard for cloud-based infrastructures.
- Abstract(参考訳): セキュリティコントロールは、リスクの低減、情報保護、セキュリティ規制の遵守を保証するために、クラウドベースのサービス用に設計されたメカニズムまたはポリシーである。
セキュリティコントロールの開発は、伝統的に労働集約的で時間を要するプロセスである。
本稿では,ジェネレーティブAIを用いたセキュリティ制御の高速化について検討する。
我々は特に、構造化され理解可能なフォーマットでセキュリティ制御の振る舞いを定義するのに使用されるドメイン固有言語であるGherkinコードの生成に重点を置いている。
大規模言語モデルとコンテキスト内学習を活用して,セキュリティコントロールの開発に要する時間を2~3日から1分未満に短縮する構造化フレームワークを提案する。
提案手法では,詳細なタスク記述,ステップバイステップ命令,検索拡張生成を統合し,生成したGherkin符号の精度と効率を向上させる。
原文(投稿日:2019/09/17)へのリンク AWSクラウドサービスに関する最初の評価は、有望な結果を示し、GenAIがセキュリティ管理開発プロセスを効果的に合理化できることを示し、クラウドベースのインフラストラクチャに対する堅牢で動的な保護を提供する。
関連論文リスト
- Trustworthy AI: Securing Sensitive Data in Large Language Models [0.0]
大規模言語モデル(LLM)は、堅牢なテキスト生成と理解を可能にすることで自然言語処理(NLP)を変革した。
本稿では, 機密情報の開示を動的に制御するために, 信頼機構をLCMに組み込むための包括的枠組みを提案する。
論文 参考訳(メタデータ) (2024-09-26T19:02:33Z) - PriRoAgg: Achieving Robust Model Aggregation with Minimum Privacy Leakage for Federated Learning [49.916365792036636]
フェデレートラーニング(FL)は、大規模分散ユーザデータを活用する可能性から、最近大きな勢いを増している。
送信されたモデル更新は、センシティブなユーザ情報をリークする可能性があり、ローカルなトレーニングプロセスの集中的な制御の欠如は、モデル更新に対する悪意のある操作の影響を受けやすいグローバルモデルを残します。
我々は、Lagrange符号化計算と分散ゼロ知識証明を利用した汎用フレームワークPriRoAggを開発し、集約されたプライバシを満たすとともに、幅広いロバストな集約アルゴリズムを実行する。
論文 参考訳(メタデータ) (2024-07-12T03:18:08Z) - A Formal Model of Security Controls' Capabilities and Its Applications to Policy Refinement and Incident Management [0.2621730497733947]
本稿では,セキュリティ管理がセキュリティポリシーを強制する上で提供する機能を抽象化する形式モデルであるSecurity Capability Model(SCM)を提案する。
実世界のシナリオで有効性を検証することで、SCMは異なる複雑なセキュリティタスクの自動化を可能にすることを示す。
論文 参考訳(メタデータ) (2024-05-06T15:06:56Z) - Securing the Open RAN Infrastructure: Exploring Vulnerabilities in Kubernetes Deployments [60.51751612363882]
ソフトウェアベースのオープン無線アクセスネットワーク(RAN)システムのセキュリティへの影響について検討する。
我々は、Near Real-Time RAN Controller(RIC)クラスタをサポートするインフラストラクチャに潜在的な脆弱性と設定ミスがあることを強調します。
論文 参考訳(メタデータ) (2024-05-03T07:18:45Z) - A Zero Trust Framework for Realization and Defense Against Generative AI
Attacks in Power Grid [62.91192307098067]
本稿では電力グリッドサプライチェーン(PGSC)のための新しいゼロ信頼フレームワークを提案する。
潜在的なGenAIによる攻撃ベクターの早期発見、テールリスクに基づく安定性の評価、そしてそのような脅威の緩和を容易にする。
実験の結果,ゼロ信頼フレームワークは攻撃ベクトル生成に95.7%の精度,95%安定PGSCに9.61%のリスク尺度,GenAIによる攻撃に対する防御に99%の信頼性が得られた。
論文 参考訳(メタデータ) (2024-03-11T02:47:21Z) - Leveraging AI Planning For Detecting Cloud Security Vulnerabilities [15.503757553097387]
クラウドコンピューティングサービスは、データストレージ、処理、コラボレーションのためのスケーラブルで費用対効果の高いソリューションを提供する。
アクセス制御のミスコンフィグレーションが、クラウドアタックの主要な要因であることが多い。
本研究では,セキュリティ脆弱性を検出するPDDLモデルを開発し,ランサムウェアなどの広範囲な攻撃につながる可能性がある。
論文 参考訳(メタデータ) (2024-02-16T03:28:02Z) - A Survey and Comparative Analysis of Security Properties of CAN Authentication Protocols [92.81385447582882]
コントロールエリアネットワーク(CAN)バスは車内通信を本質的に安全でないものにしている。
本稿では,CANバスにおける15の認証プロトコルをレビューし,比較する。
実装の容易性に寄与する本質的な運用基準に基づくプロトコルの評価を行う。
論文 参考訳(メタデータ) (2024-01-19T14:52:04Z) - A Study on the Security Requirements Analysis to build a Zero Trust-based Remote Work Environment [2.1961544533969257]
本稿では,ゼロトラストモデルに基づく詳細なセキュリティ要件を提案し,それに応じて各種クラウドサービスのセキュリティ分析を行う。
セキュリティ分析の結果,ゼロトラストによるクラウドサービスに対する潜在的な脅威と対策を提案した。
論文 参考訳(メタデータ) (2024-01-08T05:50:20Z) - A Novel Approach to Identify Security Controls in Source Code [4.598579706242066]
本稿では,一般的なセキュリティ制御の包括的リストを列挙し,それぞれにデータセットを作成する。
最新のNLP技術であるBERT(Bidirectional Representations from Transformers)とTactic Detector(Tactic Detector)を使って、セキュリティコントロールを高い信頼性で識別できることを示しています。
論文 参考訳(メタデータ) (2023-07-10T21:14:39Z) - Realistic simulation of users for IT systems in cyber ranges [63.20765930558542]
ユーザアクティビティを生成するために,外部エージェントを用いて各マシンを計測する。
このエージェントは、決定論的および深層学習に基づく手法を組み合わせて、異なる環境に適応する。
また,会話や文書の作成を容易にする条件付きテキスト生成モデルを提案する。
論文 参考訳(メタデータ) (2021-11-23T10:53:29Z) - Safe RAN control: A Symbolic Reinforcement Learning Approach [62.997667081978825]
本稿では,無線アクセスネットワーク(RAN)アプリケーションの安全管理のためのシンボル強化学習(SRL)アーキテクチャを提案する。
我々は、ユーザが所定のセルネットワークトポロジに対して高レベルの論理的安全性仕様を指定できる純粋に自動化された手順を提供する。
ユーザがシステムに意図仕様を設定するのを支援するために開発されたユーザインターフェース(UI)を導入し、提案するエージェントの動作の違いを検査する。
論文 参考訳(メタデータ) (2021-06-03T16:45:40Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。