論文の概要: LLMs Killed the Script Kiddie: How Agents Supported by Large Language
Models Change the Landscape of Network Threat Testing
- arxiv url: http://arxiv.org/abs/2310.06936v1
- Date: Tue, 10 Oct 2023 18:49:20 GMT
- ステータス: 処理完了
- システム内更新日: 2023-10-14 02:54:32.881641
- Title: LLMs Killed the Script Kiddie: How Agents Supported by Large Language
Models Change the Landscape of Network Threat Testing
- Title(参考訳): llmsがスクリプトキッディを殺害:大規模言語モデルでサポートされたエージェントがネットワーク脅威テストの展望を変える
- Authors: Stephen Moskal, Sam Laney, Erik Hemberg, Una-May O'Reilly
- Abstract要約: 我々は、脅威を推論し、ツールに関する情報を生成し、サイバーキャンペーンを自動化するために、Large Language Modelsの可能性を探る。
我々は、脅威キャンペーンの1つのアクションに対する計画-実行-報告ループと、マルチアクションキャンペーンのシーケンシャルな決定プロセスを指示するプロンプト連鎖設計の技術的アプローチを提案する。
- 参考スコア(独自算出の注目度): 4.899163798406851
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In this paper, we explore the potential of Large Language Models (LLMs) to
reason about threats, generate information about tools, and automate cyber
campaigns. We begin with a manual exploration of LLMs in supporting specific
threat-related actions and decisions. We proceed by automating the decision
process in a cyber campaign. We present prompt engineering approaches for a
plan-act-report loop for one action of a threat campaign and and a prompt
chaining design that directs the sequential decision process of a multi-action
campaign. We assess the extent of LLM's cyber-specific knowledge w.r.t the
short campaign we demonstrate and provide insights into prompt design for
eliciting actionable responses. We discuss the potential impact of LLMs on the
threat landscape and the ethical considerations of using LLMs for accelerating
threat actor capabilities. We report a promising, yet concerning, application
of generative AI to cyber threats. However, the LLM's capabilities to deal with
more complex networks, sophisticated vulnerabilities, and the sensitivity of
prompts are open questions. This research should spur deliberations over the
inevitable advancements in LLM-supported cyber adversarial landscape.
- Abstract(参考訳): 本稿では,脅威を推論し,ツールに関する情報を生成し,サイバーキャンペーンを自動化するLarge Language Models(LLM)の可能性を検討する。
まず、特定の脅威に関連する行動や決定を支援するために、LSMを手動で調査することから始めます。
サイバーキャンペーンにおける意思決定プロセスの自動化を進めます。
本稿では,脅威キャンペーンの1つのアクションに対する計画-行動-報告ループと,マルチアクションキャンペーンの逐次決定過程を指示する迅速な連鎖設計について述べる。
LLMのサイバー特有の知識の程度を、我々がデモした短いキャンペーンで評価し、実行可能な応答を引き出すための迅速な設計に関する洞察を提供する。
我々は,脅威環境に対するllmの潜在的影響と,脅威アクタ能力の促進にllmを使用する倫理的考察について論じる。
我々は、創造的AIをサイバー脅威に応用する有望だが、それについて報告する。
しかし、より複雑なネットワーク、高度な脆弱性、およびプロンプトの感度を扱うLLMの能力は、オープンな疑問である。
この研究は、LLMが支援するサイバー敵の状況における必然的な進歩に関する議論を喚起するだろう。
関連論文リスト
- Compromising Embodied Agents with Contextual Backdoor Attacks [69.71630408822767]
大型言語モデル(LLM)は、エンボディドインテリジェンスの発展に変化をもたらした。
本稿では,このプロセスにおけるバックドアセキュリティの重大な脅威を明らかにする。
ほんの少しの文脈的デモンストレーションを毒殺しただけで、攻撃者はブラックボックスLDMの文脈的環境を隠蔽することができる。
論文 参考訳(メタデータ) (2024-08-06T01:20:12Z) - A Comprehensive Overview of Large Language Models (LLMs) for Cyber Defences: Opportunities and Directions [12.044950530380563]
最近のLLM(Large Language Models)の進歩は、データ中心のアプリケーション分野で大きな成功を収めている。
サイバー防衛部門におけるLSMの最近の活動の概要について概説する。
トランスフォーマー, 事前学習トランスフォーマー, GPTからのLCMの進行に関する基本的な概念を述べる。
論文 参考訳(メタデータ) (2024-05-23T12:19:07Z) - Generative AI and Large Language Models for Cyber Security: All Insights You Need [0.06597195879147556]
本稿では,ジェネレーティブAIとLarge Language Models(LLMs)によるサイバーセキュリティの将来を概観する。
ハードウェア設計のセキュリティ、侵入検知、ソフトウェアエンジニアリング、設計検証、サイバー脅威インテリジェンス、マルウェア検出、フィッシング検出など、さまざまな領域にわたるLCMアプリケーションを探索する。
GPT-4, GPT-3.5, Mixtral-8x7B, BERT, Falcon2, LLaMA などのモデルの発展に焦点を当て, LLM の進化とその現状について概説する。
論文 参考訳(メタデータ) (2024-05-21T13:02:27Z) - Large Language Models for Cyber Security: A Systematic Literature Review [14.924782327303765]
サイバーセキュリティ(LLM4Security)における大規模言語モデルの適用に関する文献の総合的なレビューを行う。
LLMは、脆弱性検出、マルウェア分析、ネットワーク侵入検出、フィッシング検出など、幅広いサイバーセキュリティタスクに応用されている。
第3に、細調整、転送学習、ドメイン固有の事前トレーニングなど、特定のサイバーセキュリティドメインにLLMを適用するための有望なテクニックをいくつか特定する。
論文 参考訳(メタデータ) (2024-05-08T02:09:17Z) - SEvenLLM: Benchmarking, Eliciting, and Enhancing Abilities of Large Language Models in Cyber Threat Intelligence [27.550484938124193]
本稿では,サイバーセキュリティのインシデント分析と応答能力をベンチマークし,評価し,改善するためのフレームワークを提案する。
サイバーセキュリティのWebサイトから、サイバーセキュリティの生テキストをクロールすることによって、高品質なバイリンガル命令コーパスを作成します。
命令データセットSEvenLLM-Instructは、マルチタスク学習目的のサイバーセキュリティLLMのトレーニングに使用される。
論文 参考訳(メタデータ) (2024-05-06T13:17:43Z) - Prompt Leakage effect and defense strategies for multi-turn LLM interactions [95.33778028192593]
システムプロンプトの漏洩は知的財産を侵害し、攻撃者に対する敵の偵察として機能する可能性がある。
我々は, LLM sycophancy 効果を利用して, 平均攻撃成功率 (ASR) を17.7%から86.2%に高めるユニークな脅威モデルを構築した。
7つのブラックボックス防衛戦略の緩和効果と、漏洩防止のためのオープンソースモデルを微調整する。
論文 参考訳(メタデータ) (2024-04-24T23:39:58Z) - The Wolf Within: Covert Injection of Malice into MLLM Societies via an MLLM Operative [55.08395463562242]
MLLM(Multimodal Large Language Models)は、AGI(Artificial General Intelligence)の新たな境界を常に定義している。
本稿では,MLLM社会において,悪意のあるコンテンツの間接的伝播という新たな脆弱性について検討する。
論文 参考訳(メタデータ) (2024-02-20T23:08:21Z) - Attack Prompt Generation for Red Teaming and Defending Large Language
Models [70.157691818224]
大規模言語モデル (LLM) は、有害なコンテンツを生成するためにLSMを誘導するレッド・チーム・アタックの影響を受けやすい。
本稿では、手動と自動の手法を組み合わせて、高品質な攻撃プロンプトを経済的に生成する統合的アプローチを提案する。
論文 参考訳(メタデータ) (2023-10-19T06:15:05Z) - On the Risk of Misinformation Pollution with Large Language Models [127.1107824751703]
本稿では,現代大規模言語モデル (LLM) の誤用の可能性について検討する。
本研究は, LLMが効果的な誤情報発生器として機能し, DOQAシステムの性能が著しく低下することを明らかにする。
論文 参考訳(メタデータ) (2023-05-23T04:10:26Z) - Not what you've signed up for: Compromising Real-World LLM-Integrated
Applications with Indirect Prompt Injection [64.67495502772866]
大規模言語モデル(LLM)は、様々なアプリケーションに統合されつつある。
本稿では、プロンプトインジェクション攻撃を用いて、攻撃者が元の命令をオーバーライドし、制御を採用する方法を示す。
我々は、コンピュータセキュリティの観点から、影響や脆弱性を体系的に調査する包括的な分類法を導出する。
論文 参考訳(メタデータ) (2023-02-23T17:14:38Z) - Automating Cyber Threat Hunting Using NLP, Automated Query Generation,
and Genetic Perturbation [8.669461942767098]
We have developed the WILEE system that cyber threat hunting by translating high-level threat descriptions into many possible concrete implementation。
高レベル)抽象的および(低レベル)具体的な実装は、カスタムドメイン固有の言語を使用して表現される。
WILEEは、DSLで書かれた他のロジックと共に実装を使用して、クエリを自動的に生成し、潜在的な敵に結びついた仮説を確認(または否定)する。
論文 参考訳(メタデータ) (2021-04-23T13:19:12Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。