論文の概要: On the Surprising Efficacy of LLMs for Penetration-Testing
- arxiv url: http://arxiv.org/abs/2507.00829v1
- Date: Tue, 01 Jul 2025 15:01:18 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-07-03 14:22:59.68011
- Title: On the Surprising Efficacy of LLMs for Penetration-Testing
- Title(参考訳): 浸透試験におけるLCMのサプライズ効果について
- Authors: Andreas Happe, Jürgen Cito,
- Abstract要約: この論文は、浸透試験におけるLarge Language Models (LLMs)の進化を徹底的にレビューする。
さまざまな攻撃的なセキュリティタスクにまたがって、彼らのアプリケーションをデモし、サイバー殺人チェーンの幅広いフェーズをカバーする。
論文では、より広範な採用と安全なデプロイメントを妨げる重要な障害を特定し、議論する。
- 参考スコア(独自算出の注目度): 3.11537581064266
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: This paper presents a critical examination of the surprising efficacy of Large Language Models (LLMs) in penetration testing. The paper thoroughly reviews the evolution of LLMs and their rapidly expanding capabilities which render them increasingly suitable for complex penetration testing operations. It systematically details the historical adoption of LLMs in both academic research and industry, showcasing their application across various offensive security tasks and covering broader phases of the cyber kill chain. Crucially, the analysis also extends to the observed adoption of LLMs by malicious actors, underscoring the inherent dual-use challenge of this technology within the security landscape. The unexpected effectiveness of LLMs in this context is elucidated by several key factors: the strong alignment between penetration testing's reliance on pattern-matching and LLMs' core strengths, their inherent capacity to manage uncertainty in dynamic environments, and cost-effective access to competent pre-trained models through LLM providers. The current landscape of LLM-aided penetration testing is categorized into interactive 'vibe-hacking' and the emergence of fully autonomous systems. The paper identifies and discusses significant obstacles impeding wider adoption and safe deployment. These include critical issues concerning model reliability and stability, paramount safety and security concerns, substantial monetary and ecological costs, implications for privacy and digital sovereignty, complex questions of accountability, and profound ethical dilemmas. This comprehensive review and analysis provides a foundation for discussion on future research directions and the development of robust safeguards at the intersection of AI and security.
- Abstract(参考訳): 本稿では,Large Language Models (LLMs) の浸透試験における驚くべき有効性について批判的検討を行った。
本論文は,LLMの進化と,それらが複雑な浸透試験操作に適合する急激な拡張能力について,徹底的にレビューする。
学術研究と産業の両方におけるLSMの歴史的採用を体系的に詳述し、様々な攻撃的なセキュリティタスクにまたがる適用を示し、サイバー殺人チェーンの幅広い段階をカバーする。
重要な点として、この分析は悪意あるアクターによるLLMの採用を観察することにまで拡張し、セキュリティの世界におけるこの技術の本質的なデュアルユース・チャレンジを強調している。
この文脈におけるLLMの予期せぬ有効性は、パターンマッチングとLLMのコア強度への依存の強い整合性、動的環境における不確実性を管理するための固有の能力、LLMプロバイダによる有能な事前学習モデルへの費用対効果などによって解明される。
LLM支援浸透試験の現在の状況は、インタラクティブな「ビブハック」と完全自律システムの出現に分類されている。
論文では、より広範な採用と安全なデプロイメントを妨げる重要な障害を特定し、議論する。
これらには、モデルの信頼性と安定性に関する重要な問題、最優先の安全とセキュリティの懸念、実質的な金融と生態的コスト、プライバシーとデジタル主権の含意、説明責任に関する複雑な問題、深遠な倫理的ジレンマが含まれる。
この包括的なレビューと分析は、将来の研究の方向性と、AIとセキュリティの交差点における堅牢なセーフガードの開発に関する議論の基礎となる。
関連論文リスト
- From Texts to Shields: Convergence of Large Language Models and Cybersecurity [15.480598518857695]
本稿では,大規模言語モデル(LLM)とサイバーセキュリティの収束について検討する。
ソフトウェアおよびネットワークセキュリティ、5G脆弱性分析、生成セキュリティ工学におけるLLMの新たな応用について検討する。
論文 参考訳(メタデータ) (2025-05-01T20:01:07Z) - LLMpatronous: Harnessing the Power of LLMs For Vulnerability Detection [0.0]
脆弱性検出のための大規模言語モデル(LLM)には、ユニークな課題がある。
脆弱性検出に機械学習モデルを使用した以前の試みは、効果がないことが証明されている。
我々は、これらの制限を緩和することに焦点を当てた、堅牢なAI駆動アプローチを提案する。
論文 参考訳(メタデータ) (2025-04-25T15:30:40Z) - Global Challenge for Safe and Secure LLMs Track 1 [57.08717321907755]
LLM(Global Challenge for Safe and Secure Large Language Models)は、AI Singapore(AISG)とCyberSG R&D Programme Office(CRPO)が主催する先駆的イニシアチブである。
本稿では,AI Singapore(AISG)とCyberSG R&D Programme Office(CRPO)が組織した先駆的イニシアチブであるLLM(Global Challenge for Safe and Secure Large Language Models)を紹介する。
論文 参考訳(メタデータ) (2024-11-21T08:20:31Z) - Ollabench: Evaluating LLMs' Reasoning for Human-centric Interdependent Cybersecurity [0.0]
大規模言語モデル(LLM)は、複雑な相互依存型サイバーセキュリティシステムを表現することによってエージェントベースモデリングを強化する可能性がある。
既存の評価フレームワークは、しばしば、相互依存型サイバーセキュリティに不可欠なヒューマンファクターと認知コンピューティング能力を見落としている。
シナリオベースの情報セキュリティコンプライアンスや非コンプライアンス問題に答える上で,LLMの正確性,無駄性,一貫性を評価する新しい評価フレームワークであるOllaBenchを提案する。
論文 参考訳(メタデータ) (2024-06-11T00:35:39Z) - Securing Large Language Models: Threats, Vulnerabilities and Responsible Practices [4.593170087121314]
大規模言語モデル(LLM)は、自然言語処理(NLP)のランドスケープを大きく変えた。
本研究は,5つのテーマの観点から,LLMに関するセキュリティとプライバシの懸念を徹底的に調査する。
本稿は, LLMの安全性とリスク管理を強化するために, 今後の研究に期待できる道筋を提案する。
論文 参考訳(メタデータ) (2024-03-19T07:10:58Z) - SALAD-Bench: A Hierarchical and Comprehensive Safety Benchmark for Large Language Models [107.82336341926134]
SALAD-Benchは、大規模言語モデル(LLM)を評価するために特別に設計された安全ベンチマークである。
それは、その大規模な、豊富な多様性、三つのレベルにまたがる複雑な分類、多目的機能を通じて、従来のベンチマークを超越している。
論文 参考訳(メタデータ) (2024-02-07T17:33:54Z) - Prioritizing Safeguarding Over Autonomy: Risks of LLM Agents for Science [65.77763092833348]
大規模言語モデル(LLM)を利用したインテリジェントエージェントは、自律的な実験を行い、様々な分野にわたる科学的発見を促進する上で、大きな可能性を証明している。
彼らの能力は有望だが、これらのエージェントは安全性を慎重に考慮する必要がある新たな脆弱性も導入している。
本稿では,科学領域におけるLSMをベースとしたエージェントの脆弱性の徹底的な調査を行い,その誤用に伴う潜在的なリスクに光を当て,安全性対策の必要性を強調した。
論文 参考訳(メタデータ) (2024-02-06T18:54:07Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。