論文の概要: RefPentester: A Knowledge-Informed Self-Reflective Penetration Testing Framework Based on Large Language Models
- arxiv url: http://arxiv.org/abs/2505.07089v2
- Date: Wed, 14 May 2025 00:44:05 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-15 13:24:43.900368
- Title: RefPentester: A Knowledge-Informed Self-Reflective Penetration Testing Framework Based on Large Language Models
- Title(参考訳): RefPentester: 大規模言語モデルに基づく知識に富んだ自己表現型浸透テストフレームワーク
- Authors: Hanzheng Dai, Yuanliang Li, Zhibo Zhang, Jun Yan,
- Abstract要約: RefPentesterは、大規模言語モデル(LLM)を利用した知識インフォームド・セルフ・リフレクティブ・オートPTフレームワークである。
RefPentesterはHack The BoxのSauマシン上で認証情報を明らかにすることができ、ベースラインのGPT-4oモデルを16.7%上回っている。
- 参考スコア(独自算出の注目度): 2.874106861234399
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Automated penetration testing (AutoPT) powered by large language models (LLMs) has gained attention for its ability to automate ethical hacking processes and identify vulnerabilities in target systems by leveraging the intrinsic knowledge of LLMs. However, existing LLM-based AutoPT frameworks often underperform compared to human experts in challenging tasks for several reasons: the imbalanced knowledge used in LLM training, short-sighted planning in the planning process, and hallucinations during command generation. In addition, the penetration testing (PT) process, with its trial-and-error nature, is limited by existing frameworks that lack mechanisms to learn from previous failed operations, restricting adaptive improvement of PT strategies. To address these limitations, we propose a knowledge-informed self-reflective PT framework powered by LLMs, called RefPentester, which is an AutoPT framework designed to assist human operators in identifying the current stage of the PT process, selecting appropriate tactic and technique for the stage, choosing suggested action, providing step-by-step operational guidance, and learning from previous failed operations. We also modeled the PT process as a seven-state Stage Machine to integrate the proposed framework effectively. The evaluation shows that RefPentester can successfully reveal credentials on Hack The Box's Sau machine, outperforming the baseline GPT-4o model by 16.7%. Across PT stages, RefPentester also demonstrates superior success rates on PT stage transitions.
- Abstract(参考訳): 大規模言語モデル(LLM)を利用した自動侵入テスト(AutoPT)は、LLMの本質的な知識を活用することにより、倫理的ハッキングプロセスの自動化とターゲットシステムの脆弱性の特定能力に注目を集めている。
しかしながら、既存のLLMベースのAutoPTフレームワークは、LLMトレーニングで使用される不均衡な知識、計画プロセスにおける短期的な計画、コマンド生成時の幻覚など、いくつかの理由により、人間専門家と比較してパフォーマンスが劣ることが多い。
さらに、試行錯誤性のあるPTプロセスは、以前の失敗した操作から学習するメカニズムに欠ける既存のフレームワークによって制限されており、PT戦略の適応的な改善が制限されている。
これらの制約に対処するため,LLM を利用した知識インフォームの自己表現型 PT フレームワーク RefPentester を提案する。これは,PT プロセスの現段階の特定,適切な戦術と技術の選択,提案されたアクションの選択,ステップバイステップの操作指導,以前の動作からの学習を支援するための AutoPT フレームワークである。
また、PTプロセスを7状態ステージマシンとしてモデル化し、提案したフレームワークを効果的に統合した。
評価の結果、RefPentesterはHack The BoxのSauマシン上で認証情報を明らかにし、ベースラインのGPT-4oモデルを16.7%上回った。
PTステージ全体では、RefPentesterはPTステージ遷移において優れた成功率を示す。
関連論文リスト
- LLMPrism: Black-box Performance Diagnosis for Production LLM Training Platforms [31.576014566773697]
大規模言語モデル (LLM) は様々な分野で革命的な変化をもたらした。
本稿では,ジョブのトレーニングスケジュールを再構築するための基盤となるネットワークフローデータの利用を提案する。
LLMトレーニングプラットフォームのための最初のブラックボックス性能診断システムであるLSMPrismを設計する。
論文 参考訳(メタデータ) (2025-05-01T06:38:52Z) - Leveraging Pre-trained Large Language Models with Refined Prompting for Online Task and Motion Planning [24.797220935378057]
本稿では,事前学習型大規模言語モデル (LLM) によって支援された閉ループタスク計画・実行システム LLM-PAS を提案する。
タスク実行時の異常条件に対するLLM-PASの有効性とロバスト性を示す。
論文 参考訳(メタデータ) (2025-04-30T12:53:53Z) - AutoPT: How Far Are We from the End2End Automated Web Penetration Testing? [54.65079443902714]
LLMによって駆動されるPSMの原理に基づく自動浸透試験エージェントであるAutoPTを紹介する。
以上の結果から, AutoPT は GPT-4o ミニモデル上でのベースラインフレームワーク ReAct よりも優れていた。
論文 参考訳(メタデータ) (2024-11-02T13:24:30Z) - ATTNChecker: Highly-Optimized Fault Tolerant Attention for Large Language Model Training [14.178223242134166]
大規模言語モデル (LLM) は様々な自然言語処理タスクにおいて顕著な性能を示した。
LLMは、特にアテンション機構において故障の影響を受けやすいが、これはトランスフォーマーベースのLLMの重要な構成要素である。
我々は,LLMにおけるアテンション機構に適したアルゴリズムベースフォールトトレランス(ABFT)技術であるATTNCheckerを提案する。
論文 参考訳(メタデータ) (2024-10-15T15:52:45Z) - Attribute Controlled Fine-tuning for Large Language Models: A Case Study on Detoxification [76.14641982122696]
本稿では,属性制御付き大規模言語モデル(LLM)の制約学習スキーマを提案する。
提案手法は, ベンチマーク上での競合性能と毒性検出タスクを達成しながら, 不適切な応答を少ないLCMに導出することを示す。
論文 参考訳(メタデータ) (2024-10-07T23:38:58Z) - From Words to Actions: Unveiling the Theoretical Underpinnings of LLM-Driven Autonomous Systems [59.40480894948944]
大規模言語モデル (LLM) は、物理世界の意思決定問題を解くことができる。
このモデルの下で、LLM Plannerは、プロンプトを介して言語ベースのサブゴールを反復的に生成することにより、部分的に観測可能なマルコフ決定プロセス(POMDP)をナビゲートする。
我々は,事前学習したLLMプランナーが,文脈内学習を通じてベイズ的集計模倣学習(BAIL)を効果的に行うことを証明した。
論文 参考訳(メタデータ) (2024-05-30T09:42:54Z) - AlphaMath Almost Zero: Process Supervision without Process [6.318873143509028]
我々はモンテカルロ木探索(MCTS)を活用することによってプロセスアノテーションの必要性を回避できる革新的なフレームワークAlphaMathを提案する。
このフレームワークは、その数学的推論を自律的に強化する、よく訓練されたLLMの可能性を解き放つことに焦点を当てている。
ドメイン内データセットとドメイン外データセットの両方の実験結果から,GPT-4や人手によるプロセス監視がなくても,AlphaMathフレームワークは従来の最先端手法と同等あるいは優れた結果が得られることが示された。
論文 参考訳(メタデータ) (2024-05-06T15:20:30Z) - Automatically Correcting Large Language Models: Surveying the landscape
of diverse self-correction strategies [104.32199881187607]
大規模言語モデル(LLM)は、幅広いNLPタスクで顕著な性能を示した。
これらの欠陥を正すための有望なアプローチは自己補正であり、LLM自体が自身の出力で問題を修正するために誘導される。
本稿では,この新技術について概観する。
論文 参考訳(メタデータ) (2023-08-06T18:38:52Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。