論文の概要: Can LLMs Hack Enterprise Networks? Autonomous Assumed Breach Penetration-Testing Active Directory Networks
- arxiv url: http://arxiv.org/abs/2502.04227v1
- Date: Thu, 06 Feb 2025 17:12:43 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-02-07 15:30:40.861588
- Title: Can LLMs Hack Enterprise Networks? Autonomous Assumed Breach Penetration-Testing Active Directory Networks
- Title(参考訳): LLMsはエンタープライズネットワークをハックできるか? 自律的に侵入テストを行うアクティブディレクトリネットワーク
- Authors: Andreas Happe, Jürgen Cito,
- Abstract要約: 我々は,LLM(Large Language Models)によって駆動される新しいプロトタイプを紹介し,実生活におけるActive Directoryテストベッド内のアカウントを妥協する。
プロトタイプのソースコード、トレース、分析されたログは、集団サイバーセキュリティを強化するためにオープンソースとしてリリースされている。
- 参考スコア(独自算出の注目度): 3.11537581064266
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We explore the feasibility and effectiveness of using LLM-driven autonomous systems for Assumed Breach penetration testing in enterprise networks. We introduce a novel prototype that, driven by Large Language Models (LLMs), can compromise accounts within a real-life Active Directory testbed. Our research provides a comprehensive evaluation of the prototype's capabilities, and highlights both strengths and limitations while executing attack. The evaluation uses a realistic simulation environment (Game of Active Directory, GOAD) to capture intricate interactions, stochastic outcomes, and timing dependencies that characterize live network scenarios. The study concludes that autonomous LLMs are able to conduct Assumed Breach simulations, potentially democratizing access to penetration testing for organizations facing budgetary constraints. The prototype's source code, traces, and analyzed logs are released as open-source to enhance collective cybersecurity and facilitate future research in LLM-driven cybersecurity automation.
- Abstract(参考訳): 本研究では,LLM駆動型自律システムによる企業ネットワークにおける推定ブレハ浸透試験の実現可能性と有効性について検討する。
我々は,LLM(Large Language Models)によって駆動される新しいプロトタイプを紹介し,実生活におけるActive Directoryテストベッド内のアカウントを妥協する。
我々の研究は、プロトタイプの能力を総合的に評価し、攻撃実行時の強度と限界の両方を強調します。
この評価では,現実的なシミュレーション環境(GOAD,Game of Active Directory)を用いて,複雑なインタラクション,確率的結果,およびライブネットワークシナリオを特徴付けるタイミング依存性をキャプチャする。
この研究は、自律型LLMは、予算的な制約に直面している組織に対して、侵入テストへのアクセスを民主化する、仮定されたブレッハシミュレーションを実行することができると結論付けている。
プロトタイプのソースコード、トレース、分析されたログは、集団サイバーセキュリティを強化し、LLM駆動サイバーセキュリティ自動化における将来の研究を促進するために、オープンソースとしてリリースされている。
関連論文リスト
- White-Basilisk: A Hybrid Model for Code Vulnerability Detection [50.49233187721795]
我々は、優れた性能を示す脆弱性検出の新しいアプローチであるWhite-Basiliskを紹介する。
White-Basiliskは、パラメータ数2億の脆弱性検出タスクで結果を得る。
この研究は、コードセキュリティにおける新しいベンチマークを確立し、コンパクトで効率的に設計されたモデルが、特定のタスクにおいてより大きなベンチマークよりも優れているという実証的な証拠を提供する。
論文 参考訳(メタデータ) (2025-07-11T12:39:25Z) - On the Surprising Efficacy of LLMs for Penetration-Testing [3.11537581064266]
この論文は、浸透試験におけるLarge Language Models (LLMs)の進化を徹底的にレビューする。
さまざまな攻撃的なセキュリティタスクにまたがって、彼らのアプリケーションをデモし、サイバー殺人チェーンの幅広いフェーズをカバーする。
論文では、より広範な採用と安全なデプロイメントを妨げる重要な障害を特定し、議論する。
論文 参考訳(メタデータ) (2025-07-01T15:01:18Z) - Expert-in-the-Loop Systems with Cross-Domain and In-Domain Few-Shot Learning for Software Vulnerability Detection [38.083049237330826]
本研究では,CWE(Common Weaknessions)を用いたPythonコードの識別をシミュレーションすることにより,ソフトウェア脆弱性評価におけるLLM(Large Language Models)の利用について検討する。
その結果,ゼロショットプロンプトは性能が低いが,少数ショットプロンプトは分類性能を著しく向上させることがわかった。
モデル信頼性、解釈可能性、敵の堅牢性といった課題は、将来の研究にとって重要な領域のままである。
論文 参考訳(メタデータ) (2025-06-11T18:43:51Z) - LLMpatronous: Harnessing the Power of LLMs For Vulnerability Detection [0.0]
脆弱性検出のための大規模言語モデル(LLM)には、ユニークな課題がある。
脆弱性検出に機械学習モデルを使用した以前の試みは、効果がないことが証明されている。
我々は、これらの制限を緩和することに焦点を当てた、堅牢なAI駆動アプローチを提案する。
論文 参考訳(メタデータ) (2025-04-25T15:30:40Z) - Large Language Models powered Network Attack Detection: Architecture, Opportunities and Case Study [26.966976709473226]
大規模言語モデル(LLM)は膨大なテキストコーパスで訓練される。
これにより、ネットワークの脅威検出のための新しい扉が開かれた。
本稿では,LLMを用いたDDoS検出の設計を事例として紹介する。
論文 参考訳(メタデータ) (2025-03-24T09:40:46Z) - How Robust Are Router-LLMs? Analysis of the Fragility of LLM Routing Capabilities [62.474732677086855]
大規模言語モデル(LLM)ルーティングは,計算コストと性能のバランスをとる上で重要な戦略である。
DSCベンチマークを提案する: Diverse, Simple, and Categorizedは、幅広いクエリタイプでルータのパフォーマンスを分類する評価フレームワークである。
論文 参考訳(メタデータ) (2025-03-20T19:52:30Z) - Construction and Evaluation of LLM-based agents for Semi-Autonomous penetration testing [0.0]
高性能大規模言語モデル (LLM) は様々な領域にまたがって進歩している。
サイバーセキュリティのような高度な専門分野において、完全な自律性は依然として課題である。
本稿では,複数のLLMモジュールを用いて,複雑なサイバーセキュリティを半自律的に実行するシステムを提案する。
論文 参考訳(メタデータ) (2025-02-21T15:02:39Z) - OCCULT: Evaluating Large Language Models for Offensive Cyber Operation Capabilities [0.0]
我々は、実世界の攻撃的サイバー操作の実現とスケーリングに向けたAIの進歩を評価するための新しいアプローチを実証する。
我々は、サイバーセキュリティの専門家が厳格かつ反復可能な測定に貢献できる軽量な運用評価フレームワークであるOCCULTについて詳述する。
私たちは、現実的なサイバー脅威をスケールするためにAIが使用されるリスクが、最近著しく進歩していることに気付きました。
論文 参考訳(メタデータ) (2025-02-18T19:33:14Z) - Scaling Autonomous Agents via Automatic Reward Modeling And Planning [52.39395405893965]
大規模言語モデル(LLM)は、様々なタスクにまたがる顕著な機能を示している。
しかし、彼らは多段階の意思決定と環境フィードバックを必要とする問題に苦戦している。
人間のアノテーションを使わずに環境から報酬モデルを自動的に学習できるフレームワークを提案する。
論文 参考訳(メタデータ) (2025-02-17T18:49:25Z) - Risk-Aware Driving Scenario Analysis with Large Language Models [7.093690352605479]
大規模言語モデル(LLM)は、微妙な文脈関係、推論、複雑な問題解決を捉えることができる。
本稿では, LLM を利用して生成した運転シナリオのリスク認識分析を行う新しいフレームワークを提案する。
論文 参考訳(メタデータ) (2025-02-04T09:19:13Z) - Black-Box Adversarial Attack on Vision Language Models for Autonomous Driving [65.61999354218628]
我々は、自律運転システムにおいて、視覚言語モデル(VLM)をターゲットとしたブラックボックス敵攻撃を設計する第一歩を踏み出す。
セマンティクスの生成と注入による低レベル推論の分解を目標とするカスケーディング・アディバーショナル・ディスラプション(CAD)を提案する。
本稿では,高レベルリスクシナリオの理解と構築に代理VLMを活用することで,動的適応に対処するリスクシーンインジェクションを提案する。
論文 参考訳(メタデータ) (2025-01-23T11:10:02Z) - AutoPT: How Far Are We from the End2End Automated Web Penetration Testing? [54.65079443902714]
LLMによって駆動されるPSMの原理に基づく自動浸透試験エージェントであるAutoPTを紹介する。
以上の結果から, AutoPT は GPT-4o ミニモデル上でのベースラインフレームワーク ReAct よりも優れていた。
論文 参考訳(メタデータ) (2024-11-02T13:24:30Z) - Large Language Model as a Catalyst: A Paradigm Shift in Base Station Siting Optimization [62.16747639440893]
大規模言語モデル(LLM)とその関連技術は、特に迅速な工学とエージェント工学の領域において進歩している。
提案するフレームワークは、検索拡張生成(RAG)を組み込んで、ドメイン固有の知識を取得してソリューションを生成するシステムの能力を高める。
論文 参考訳(メタデータ) (2024-08-07T08:43:32Z) - ROS-LLM: A ROS framework for embodied AI with task feedback and structured reasoning [74.58666091522198]
非専門家による直感的なロボットプログラミングのためのフレームワークを提案する。
ロボットオペレーティングシステム(ROS)からの自然言語のプロンプトと文脈情報を活用する
我々のシステムは,大規模言語モデル (LLM) を統合し,非専門家がチャットインタフェースを通じてシステムにタスク要求を記述できるようにする。
論文 参考訳(メタデータ) (2024-06-28T08:28:38Z) - Cooperate or Collapse: Emergence of Sustainable Cooperation in a Society of LLM Agents [101.17919953243107]
GovSimは、大規模言語モデル(LLM)における戦略的相互作用と協調的意思決定を研究するために設計された生成シミュレーションプラットフォームである。
最強のLSMエージェントを除く全てのエージェントは、GovSimの持続的均衡を達成することができず、生存率は54%以下である。
道徳的思考の理論である「大学化」に基づく推論を活用するエージェントは、持続可能性を大幅に向上できることを示す。
論文 参考訳(メタデータ) (2024-04-25T15:59:16Z) - Can LLMs Understand Computer Networks? Towards a Virtual System Administrator [15.469010487781931]
本稿では,大規模言語モデルによるコンピュータネットワークの理解に関する総合的研究を初めて行った。
我々は,プロプライエタリ(GPT4)とオープンソース(Llama2)モデルを用いたマルチコンピュータネットワーク上でのフレームワークの評価を行った。
論文 参考訳(メタデータ) (2024-04-19T07:41:54Z) - Unveiling the Misuse Potential of Base Large Language Models via In-Context Learning [61.2224355547598]
大規模言語モデル(LLM)のオープンソース化は、アプリケーション開発、イノベーション、科学的進歩を加速させる。
我々の調査は、この信念に対する重大な監視を露呈している。
我々の研究は、慎重に設計されたデモを配置することにより、ベースLSMが悪意のある命令を効果的に解釈し実行できることを実証する。
論文 参考訳(メタデータ) (2024-04-16T13:22:54Z) - Empowering Autonomous Driving with Large Language Models: A Safety Perspective [82.90376711290808]
本稿では,Large Language Models (LLM) の自律運転システムへの統合について検討する。
LLMは行動計画におけるインテリジェントな意思決定者であり、文脈的安全学習のための安全検証シールドを備えている。
適応型LLM条件モデル予測制御(MPC)と状態機械を用いたLLM対応対話型行動計画スキームという,シミュレーション環境における2つの重要な研究について述べる。
論文 参考訳(メタデータ) (2023-11-28T03:13:09Z) - RCAgent: Cloud Root Cause Analysis by Autonomous Agents with Tool-Augmented Large Language Models [46.476439550746136]
近年,クラウド根本原因分析(RCA)における言語モデル (LLM) の適用が活発に検討されている。
RCAgentは、実用的でプライバシに配慮した産業RCA利用のためのツール強化LDM自律エージェントフレームワークである。
RCAgentはGPTファミリではなく、内部的にデプロイされたモデル上で動作し、フリーフォームのデータ収集とツールによる包括的な分析を行うことができる。
論文 参考訳(メタデータ) (2023-10-25T03:53:31Z) - LLMs as Hackers: Autonomous Linux Privilege Escalation Attacks [0.0]
言語モデル(LLM)と浸透試験の共通点について検討する。
本稿では,LLMの(倫理的)ハッキングに対する有効性を評価するための,完全自動特権エスカレーションツールを提案する。
我々は,異なるコンテキストサイズ,コンテキスト内学習,任意の高レベルメカニズム,メモリ管理技術の影響を分析する。
論文 参考訳(メタデータ) (2023-10-17T17:15:41Z) - Getting pwn'd by AI: Penetration Testing with Large Language Models [0.0]
本稿では,GPT3.5のような大規模言語モデルによるAIスパーリングパートナーによる浸透テストの強化の可能性について検討する。
セキュリティテストの課題のためのハイレベルなタスクプランニングと、脆弱な仮想マシン内での低レベルな脆弱性ハンティングである。
論文 参考訳(メタデータ) (2023-07-24T19:59:22Z) - Automatic Perturbation Analysis for Scalable Certified Robustness and
Beyond [171.07853346630057]
ニューラルネットワークに対する線形緩和に基づく摂動解析(LiRPA)は、堅牢性検証と認証防御のコアコンポーネントとなっている。
我々は任意のニューラルネットワーク構造上で摂動解析を可能にするための自動フレームワークを開発する。
我々は、Tiny ImageNetとDownscaled ImageNetのLiRPAベースの認証防御を実証する。
論文 参考訳(メタデータ) (2020-02-28T18:47:43Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。