論文の概要: Automating Security Audit Using Large Language Model based Agent: An Exploration Experiment
- arxiv url: http://arxiv.org/abs/2505.10732v1
- Date: Thu, 15 May 2025 22:22:52 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-19 14:36:13.672096
- Title: Automating Security Audit Using Large Language Model based Agent: An Exploration Experiment
- Title(参考訳): 大規模言語モデルに基づくエージェントによるセキュリティ監査の自動化:探索実験
- Authors: Jia Hui Chin, Pu Zhang, Yu Xin Cheong, Jonathan Pan,
- Abstract要約: セキュリティ監査は、ポリシーが成立し、コントロールが実施され、サイバーセキュリティのリスク軽減のためにギャップが特定されることを保証することで、強力なセキュリティ姿勢を維持するのに役立つ。
本稿では,大規模言語モデル(LLM)を自律エージェントとして活用し,セキュリティ監査の一部を実行するフレームワークの開発の可能性を検討する。
- 参考スコア(独自算出の注目度): 7.039114328812774
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: In the current rapidly changing digital environment, businesses are under constant stress to ensure that their systems are secured. Security audits help to maintain a strong security posture by ensuring that policies are in place, controls are implemented, gaps are identified for cybersecurity risks mitigation. However, audits are usually manual, requiring much time and costs. This paper looks at the possibility of developing a framework to leverage Large Language Models (LLMs) as an autonomous agent to execute part of the security audit, namely with the field audit. password policy compliance for Windows operating system. Through the conduct of an exploration experiment of using GPT-4 with Langchain, the agent executed the audit tasks by accurately flagging password policy violations and appeared to be more efficient than traditional manual audits. Despite its potential limitations in operational consistency in complex and dynamic environment, the framework suggests possibilities to extend further to real-time threat monitoring and compliance checks.
- Abstract(参考訳): 現在急速に変化するデジタル環境において、企業はシステムの安全性を確保するために常にストレスにさらされている。
セキュリティ監査は、ポリシーが成立し、コントロールが実施され、サイバーセキュリティのリスク軽減のためにギャップが特定されることを保証することで、強力なセキュリティ姿勢を維持するのに役立つ。
しかしながら、監査は通常手作業であり、多くの時間とコストを必要とします。
本稿では,大規模言語モデル(LLM)を自律エージェントとして活用し,セキュリティ監査の一部,すなわちフィールド監査を行うフレームワークを開発する可能性を検討する。
Windows OSのパスワードポリシー準拠。
エージェントは、GPT-4をLangchainと併用する探索実験を通じて、パスワードポリシー違反を正確にフラグ付けすることで監査タスクを実行し、従来の手動監査よりも効率的であるように見えた。
複雑で動的な環境での運用一貫性の潜在的な制限にもかかわらず、このフレームワークはリアルタイムの脅威監視とコンプライアンスチェックにまで拡張する可能性を示唆している。
関連論文リスト
- Exposing the Ghost in the Transformer: Abnormal Detection for Large Language Models via Hidden State Forensics [5.384257830522198]
重要なアプリケーションにおける大規模言語モデル(LLM)は、重大な信頼性とセキュリティリスクを導入している。
これらの脆弱性は悪意あるアクターによって武器化され、不正アクセス、広範囲にわたる誤報、システムの完全性を侵害した。
本研究では,LLMの異常な挙動を隠蔽法で検出する手法を提案する。
論文 参考訳(メタデータ) (2025-04-01T05:58:14Z) - Towards Trustworthy GUI Agents: A Survey [64.6445117343499]
本調査では,GUIエージェントの信頼性を5つの重要な次元で検証する。
敵攻撃に対する脆弱性、シーケンシャルな意思決定における障害モードのカスケードなど、大きな課題を特定します。
GUIエージェントが普及するにつれて、堅牢な安全基準と責任ある開発プラクティスを確立することが不可欠である。
論文 参考訳(メタデータ) (2025-03-30T13:26:00Z) - AgentOrca: A Dual-System Framework to Evaluate Language Agents on Operational Routine and Constraint Adherence [54.317522790545304]
本稿では,言語エージェントの動作制約やルーチンに対するコンプライアンスを評価するための,デュアルシステムフレームワークであるAgentOrcaを提案する。
本フレームワークは,エージェントの自然言語プロンプトと,それに対応する実行可能コードが,自動検証のための基礎的真理として機能することを通じて,行動制約とルーチンを符号化する。
以上の結果から,o1のような大きな推論モデルではコンプライアンスが良好であり,他のモデルではパフォーマンスが著しく低下していることが明らかとなった。
論文 参考訳(メタデータ) (2025-03-11T17:53:02Z) - AgentGuard: Repurposing Agentic Orchestrator for Safety Evaluation of Tool Orchestration [0.3222802562733787]
AgentGuardは、安全でないツールの使用を自律的に発見し、検証するフレームワークである。
エージェントの動作を限定する安全制約を生成し、安全保証の基準を達成する。
フレームワークは、安全でないことを識別し、実際の実行でそれらを検証し、安全性の制約を生成し、制約の有効性を検証する。
論文 参考訳(メタデータ) (2025-02-13T23:00:33Z) - Autonomous Identity-Based Threat Segmentation in Zero Trust Architectures [4.169915659794567]
Zero Trust Architectures (ZTA) は,"信頼せず,すべてを検証する" アプローチを採用することで,ネットワークセキュリティを根本的に再定義する。
本研究は、ZTAにおけるAI駆動型、自律型、アイデンティティベースの脅威セグメンテーションに適用する。
論文 参考訳(メタデータ) (2025-01-10T15:35:02Z) - A Formal Model of Security Controls' Capabilities and Its Applications to Policy Refinement and Incident Management [0.2621730497733947]
本稿では,セキュリティ管理がセキュリティポリシーを強制する上で提供する機能を抽象化する形式モデルであるSecurity Capability Model(SCM)を提案する。
実世界のシナリオで有効性を検証することで、SCMは異なる複雑なセキュリティタスクの自動化を可能にすることを示す。
論文 参考訳(メタデータ) (2024-05-06T15:06:56Z) - A Survey and Comparative Analysis of Security Properties of CAN Authentication Protocols [92.81385447582882]
コントロールエリアネットワーク(CAN)バスは車内通信を本質的に安全でないものにしている。
本稿では,CANバスにおける15の認証プロトコルをレビューし,比較する。
実装の容易性に寄与する本質的な運用基準に基づくプロトコルの評価を行う。
論文 参考訳(メタデータ) (2024-01-19T14:52:04Z) - Value Functions are Control Barrier Functions: Verification of Safe
Policies using Control Theory [46.85103495283037]
本稿では,制御理論から学習値関数への検証手法の適用方法を提案する。
我々は値関数と制御障壁関数の間の関係を確立する原定理を定式化する。
我々の研究は、RLベースの制御システムの汎用的でスケーラブルで検証可能な設計のための公式なフレームワークに向けた重要な一歩である。
論文 参考訳(メタデータ) (2023-06-06T21:41:31Z) - Recursively Feasible Probabilistic Safe Online Learning with Control Barrier Functions [60.26921219698514]
CBFをベースとした安全クリティカルコントローラのモデル不確実性を考慮した再構成を提案する。
次に、結果の安全制御器のポイントワイズ実現可能性条件を示す。
これらの条件を利用して、イベントトリガーによるオンラインデータ収集戦略を考案する。
論文 参考訳(メタデータ) (2022-08-23T05:02:09Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。